O fostă angajată la Google, care a demisionat în urma unui proiect privind dronele militare, a avertizat că Inteligența Artificială (IA) ar putea porni accidental un război, scrie The Guardian.

Google a recrutat-o pe Laura Nolan, absolventă de informatică de la Trinity College Dublin, pentru a lucra la proiectul Maven, în 2017, după ce a fost angajată de gigantul tehnic, timp de patru ani, devenind unul dintre cei mai buni ingineri software din Irlanda.

O nouă generație de arme autonome numite „roboți ucigași” ar putea porni, accidental, un război sau ar putea produce atrocități în masă a declarat Laura Nolan. De profesie inginer, Nolan a demisionat în 2018 în semn de protest pentru că a fost desemnată să lucreze la un proiect pentru armata SUA, scrie sursa citată.

Nolan a cerut ca toate mecanismele IA care nu sunt operate de oameni să fie interzise.

Spre deosebire de drone, care sunt operate de echipe de oameni, Nolan a declarat că roboții ucigași au potențialul de a „produce distrugeri pentru care nu au fost programați inițial”.

„Probabilitatea unui dezastru este proporțională cu câte dintre aceste mașini vor fi într-o anumită zonă simultan. Sunt posibile atrocități și ucideri ilegale chiar și în conformitate cu legile războiului, mai ales dacă sute sau mii de astfel de mașinării vor fi activate. S-ar putea produce accidente la scară largă, deoarece aceste sisteme vor începe să se comporte în moduri neașteptate. Altfel de arme trebuie interzise deoarecesunt imprevizibile și periculoase”, a mai declarat Laura Nolan.

Specialista a mai adăugat că a devenit „din ce în ce mai preocupată din punct de vedere etic” privind rolul său în programul Maven, care a fost conceput pentru a ajuta Departamentul Apărării al SUA.

În loc să folosească un număr mare de operatori militari pentru a analiza filmările unor potențiale ținte inamice, Nolan și alți ingineri au fost rugați să construiască un sistem prin care AI să poată diferenția oamenii și obiectele într-un ritm infinit mai rapid.

Proiectul a fost abandonat, după ce peste 3.000 dintre angajații Google au semnat o petiție pentru a protesta împotriva implicării companiei.

„În calitate de inginer de fiabilitate a site-ului, expertiza mea la Google a fost să mă asigur că sistemele și infrastructurile noastre sunt menținute în funcțiune. Deși nu am fost implicată direct în accelerarea recunoașterii înregistrărilor video, mi-am dat seama că, în cele din urmă, mai mulți oameni ar putea fi vizați și uciși de către armata americană în locuri precum Afganistan”.

„Celălalt lucru înfricoșător în legătură cu aceste sisteme de război autonome este faptul că le poți testa cu adevărat doar prin implementarea lor într-o zonă de luptă reală. Poate asta se întâmplă cu rușii în prezent în Siria, cine știe? Ceea ce știm este că, la ONU, Rusia s-a opus oricărui tratat, cu atât mai mult interzicerii acestor arme”, a dezvăluit Nolan.

Abilitatea de a converti drone militare, de exemplu, în arme autonome „este doar o problemă de software în zilele noastre, una care poate fi rezolvată relativ ușor”, a avertizat Nolan.

„Dacă testați o mașină care ia propriile decizii despre lumea din jurul ei, atunci trebuie să fie în timp real. În plus, cum să antrenați un sistem care rulează exclusiv pe software cum să detecteze un comportament uman subtil sau să discerneți diferența dintre vânători și insurgenți? Cum diferențiază mașina care ucide acolo singură, între combatantul în vârstă de 18 ani și cel în vârstă de 18 ani care vânează iepuri? ”, se întreabă specialista în IT.

Ea a spus că dorește ca guvernul irlandez să adopte o poziție mai clară privind interdicția acestor arme.

„Nu spun că ar trebui interzise sistemele ghidate de rachete sau sistemele de apărare anti-rachetă. Până la urmă sunt sub control uman complet și cineva este în cele din urmă responsabil. Cu toate acestea, astfel de arme autonome reprezintă o problemă de etică. Foarte puțini oameni vorbesc despre asta, dar dacă nu suntem atenți la una sau mai multe dintre aceste arme, acești roboți ucigași, ar putea începe accidental un război fulgerător, să distrugă o centrală nucleară și să provoace atrocități în masă.”

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here