O dronă militară americană controlată de inteligenţa artificială şi-a “ucis” operatorul într-un test simulat
O dronă a forţelor aeriene americane, controlată de inteligenţa artificială, a decis să îşi “ucidă” operatorul pentru a-l împiedica să intervină în eforturile sale de a-şi îndeplini misiunea, în cadrul unui test virtual organizat de armata americană, relatează The Guardian, citând un oficial american. Nicio persoană reală nu a fost rănită, dar inteligenţa artificială a folosit “strategii extrem de neaşteptate” în cadrul testului pentru a-şi îndeplini misiunea şi a atacat pe oricine a intervenit.
Dezvăluirea a fost făcută de colonelul Tucker ‘Cinco’ Hamilton, şeful testelor şi operaţiunilor AI din cadrul forţelor aeriene americane, cu ocazia unei reuniuni privind viitoarele capacităţi aeriene şi spaţiale de luptă, care s-a desfăşurat la Londra în luna mai.
În cadrul conferinţei, Hamilton a descris un test simulat în care unei drone manevrate de inteligenţa artificială i s-a cerut să distrugă sistemele de apărare aeriană ale unui inamic, iar sistemul a atacat în cele din urmă pe oricine a intervenit în acest ordin.
“Sistemul a început să îşi dea seama că, deşi identifica ameninţarea, uneori operatorul uman îi spunea să nu ucidă acea ameninţare, însă drona îşi atingea obiectivele prin uciderea acelei ameninţări. Deci, ce a făcut? A ucis operatorul. L-a ucis pe operator pentru că acea persoană îl împiedica să îşi îndeplinească obiectivul”, a explicat oficialul într-un articol de blog. “Am antrenat sistemul: ‘Hei, nu omorâţi operatorul – asta e rău. Vei pierde puncte dacă faci asta’. Şi atunci, ce începe să facă? Începe să distrugă turnul de comunicaţii pe care operatorul îl folosea pentru a comunica cu drona ca să o împiedice să ucidă ţinta”, a dezvăluit colonelul.
Nicio persoană nu a fost rănită în realitate, precizează The Guardian.
Hamilton, care este pilot de teste experimentale pentru aviaţia de luptă, a avertizat astfel în privinţa încrederii prea mari în inteligenţa artificială şi a declarat că testul arată că “nu poţi avea o conversaţie despre inteligenţa artificială, informaţii, învăţare automată, autonomie dacă nu vei vorbi despre etică şi inteligenţă artificială”.
Societatea Aeronautică Regală, care a găzduit conferinţa, şi forţele aeriene americane nu au răspuns la solicitările de comentarii din partea The Guardian. Într-o declaraţie pentru Insider, purtătoarea de cuvânt a Forţelor Aeriene, Ann Stefanek, a negat însă că ar fi avut loc o astfel de simulare. “Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare cu drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială”, a declarat Stefanek. “Din câte se parte, comentariile colonelului au fost scoase din context şi s-au dorit a fi anecdotice”, susţine purtătoarea de cuvânt.
Armata americană a recurs însă la IA şi a folosit recent inteligenţa artificială pentru a controla un avion de luptă F-16. Într-un interviu acordat anul trecut pentru Defense IQ, colonelul Hamilton declara: “IA nu este un lucru plăcut de avut, IA nu este un moft, IA schimbă pentru totdeauna societatea şi armata noastră. Trebuie să ne confruntăm cu o lume în care IA este deja prezentă şi ne transformă societatea”, a spus el. “IA este, de asemenea, foarte fragilă, adică este uşor de păcălit şi/sau manipulat. Trebuie să dezvoltăm modalităţi de a face IA mai robustă şi să identificăm mai bine motivul pentru care codul software ia anumite decizii – ceea ce numim IA-explicabilitate”, a arătat colonelul Hamilton.