Kľúčové body:
-
Fatálne zlyhanie
AI Americký úder na iránsku školu ukázal fatálne zlyhanie prepojenia zastaraných dát a moderných vojenských AI systémov.
-
Zlyhal aj človek
Aj keď konečné rozhodnutie formálne robí človek, slepé spoliehanie sa na analýzy algoritmov pod tlakom vedie k tragickým omylom.
-
Prídu nové pravidlá?
Zavedenie prísnych medzinárodných pravidiel pre využívanie umelej inteligencie pri výbere cieľov je dnes nevyhnutnosťou, inak budú podobné masakre pribúdať.
Tragédia v iránskom Mínábe, kde americká raketa zabila desiatky detí, odhaľuje desivú pravdu o modernom vojenstve. Strojové učenie a algoritmy nesmú nikdy nahradiť ľudskú zodpovednosť.
Žijeme v ére, kedy technológie sľubujú chirurgickú presnosť a minimalizáciu takzvaných „vedľajších strát“. Realita, ktorá na konci februára zasiahla dievčenskú základnú školu v iránskom meste Mínáb, však tento mýtus rozbila na prach. Takmer dve stovky vyhasnutých životov, prevažne malých detí, nie sú len tragickým omylom vojny. Sú priamym a desivým dôsledkom toho, čo sa stane, keď armády začnú slepo dôverovať algoritmom.
Treba si povedať jednu zásadnú vec: systémy strojového učenia sú len také dobré, aké kvalitné a aktuálne sú dáta, na ktorých sú postavené. Algoritmus nemá svedomie, chýba mu intuícia a nedokáže prečítať ľudský kontext.
Pre analytický systém, akým je napríklad armádou využívaná platforma Maven od spoločnosti Palantir, sú satelitné snímky len zhlukom pixelov a historických záznamov. Ak spravodajská databáza z roku 2015 hovorí, že na daných súradniciach stojí vojenský objekt, stroj túto informáciu spracuje ako fakt. To, že medzičasom na mieste pribudlo detské ihrisko a školské triedy, systém bez správne aktualizovaných vstupov jednoducho ignoruje.
Človek degradovaný na gumenú pečiatku
Americká armáda sa bráni tým, že konečné rozhodnutie o stlačení spúšte robí vždy ľudský operátor. Je to dôležitá teoretická poistka, no v reálnej bojovej praxi často fatálne zlyháva. Vojaci vo veliacich strediskách sú pod obrovským psychickým aj časovým tlakom, musia robiť rozhodnutia v zlomkoch sekúnd a spracovávať nepredstaviteľné množstvo informácií.
V takejto vyhrotenej situácii sa stáva oveľa jednoduchším dôverovať „chytrému stroju“, ktorý predžul dáta a vyhodnotil cieľ s vysokou matematickou pravdepodobnosťou ako legitímny. Človek v slučke sa tak postupne degraduje len na byrokratickú gumenú pečiatku. Stáva sa operátorom, ktorý iba odobruje smrtonosné návrhy umelej inteligencie bez toho, aby mal priestor na skutočné overenie faktov v teréne.
Čas na globálnu stopku
Mínáb nesmie zostať len ďalšou štatistikou v dlhom zozname vojnových tragédií. Musí slúžiť ako mrazivý budíček pre medzinárodné spoločenstvo. Je najvyšší čas začať vážne diskutovať o prísnej regulácii využívania AI v bojových operáciách a pri výbere cieľov.
Technologický pokrok vo vojenstve nezastavíme a armády sa svojich digitálnych analytikov len tak nevzdajú. Musíme však stanoviť neprekročiteľné červené čiary. Zastarané dáta nesmú byť vstupenkou k odpáleniu rakiet s plochou dráhou letu. Kým v civilnom svete oslavujeme, ako nám umelá inteligencia pomáha písať texty alebo analyzovať trhy, na druhom konci sveta tie isté technologické princípy, ak sú aplikované bez absolútnej a dôslednej ľudskej poistky, pochovávajú deti pod troskami ich vlastných škôl.
Redakčná poznámka k vizuálu
Vzhľadom na citlivú povahu témy sme pre titulný obrázok použili ilustráciu vygenerovanú umelou inteligenciou. Obrázok symbolizuje tému článku a nepredstavuje skutočné zábery zničenej základnej školy v Iráne.

