The Guardian: O dronă militară americană controlată de inteligenţa artificială şi-a „ucis” operatorul

Sursa: Twitter

O dronă a forţelor aeriene americane, controlată de inteligenţa artificială, a decis să îşi „ucidă” operatorul pentru a-l împiedica să intervină în eforturile sale de a-şi îndeplini misiunea, în cadrul unui test virtual organizat de armata americană, relatează The Guardian, citând un oficial american. Nicio persoană reală nu a fost rănită, dar inteligenţa artificială a folosit „strategii extrem de neaşteptate” în cadrul testului pentru a-şi îndeplini misiunea şi a atacat pe oricine a intervenit, transmite News.ro.

Dezvăluirea a fost făcută de colonelul Tucker ‘Cinco’ Hamilton, şeful testelor şi operaţiunilor AI din cadrul forţelor aeriene americane, cu ocazia unei reuniuni privind viitoarele capacităţi aeriene şi spaţiale de luptă, care s-a desfăşurat la Londra în luna mai.

În cadrul conferinţei, Hamilton a descris un test simulat în care unei drone manevrate de inteligenţa artificială i s-a cerut să distrugă sistemele de apărare aeriană ale unui inamic, iar sistemul a atacat în cele din urmă pe oricine a intervenit în acest ordin.

„Sistemul a început să îşi dea seama că, deşi identifica ameninţarea, uneori operatorul uman îi spunea să nu ucidă acea ameninţare, însă drona îşi atingea obiectivele prin uciderea acelei ameninţări. Deci, ce a făcut? A ucis operatorul. L-a ucis pe operator pentru că acea persoană îl împiedica să îşi îndeplinească obiectivul”, a explicat oficialul într-un articol de blog. „Am antrenat sistemul: ‘Hei, nu omorâţi operatorul – asta e rău. Vei pierde puncte dacă faci asta’. Şi atunci, ce începe să facă? Începe să distrugă turnul de comunicaţii pe care operatorul îl folosea pentru a comunica cu drona ca să o împiedice să ucidă ţinta”, a dezvăluit colonelul.

Nicio persoană nu a fost rănită în realitate, precizează The Guardian.

Hamilton, care este pilot de teste experimentale pentru aviaţia de luptă, a avertizat astfel în privinţa încrederii prea mari în inteligenţa artificială şi a declarat că testul arată că „nu poţi avea o conversaţie despre inteligenţa artificială, informaţii, învăţare automată, autonomie dacă nu vei vorbi despre etică şi inteligenţă artificială”.

Societatea Aeronautică Regală, care a găzduit conferinţa, şi forţele aeriene americane nu au răspuns la solicitările de comentarii din partea The Guardian. Într-o declaraţie pentru Insider, purtătoarea de cuvânt a Forţelor Aeriene, Ann Stefanek, a negat însă că ar fi avut loc o astfel de simulare. „Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare cu drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială”, a declarat Stefanek. „Din câte se parte, comentariile colonelului au fost scoase din context şi s-au dorit a fi anecdotice”, susţine purtătoarea de cuvânt.

Armata americană a recurs însă la IA şi a folosit recent inteligenţa artificială pentru a controla un avion de luptă F-16. Într-un interviu acordat anul trecut pentru Defense IQ, colonelul Hamilton declara: „IA nu este un lucru plăcut de avut, IA nu este un moft, IA schimbă pentru totdeauna societatea şi armata noastră. Trebuie să ne confruntăm cu o lume în care IA este deja prezentă şi ne transformă societatea”, a spus el. „IA este, de asemenea, foarte fragilă, adică este uşor de păcălit şi/sau manipulat. Trebuie să dezvoltăm modalităţi de a face IA mai robustă şi să identificăm mai bine motivul pentru care codul software ia anumite decizii – ceea ce numim IA-explicabilitate”, a arătat colonelul Hamilton.

Senatul SUA a adoptat legea privind suspendarea plafonului de îndatorare, evitând intrarea în incapacitate de plată

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here