Clonele virtuale chiar arată ca noi? Testul făcut de New York Times

Sursa: Pixabay

„Există acum companii care vând persoane false. Pe site-ul Generated.Photos, poţi cumpăra o astfel de persoană falsă, „unică, fără nicio grijă” la 2,99 USD sau 1.000 de persoane la 1.000 de dolari. Dacă ai nevoie doar de câțiva oameni falși – pentru personaje într-un joc video sau pentru ca site-ul propriei companii să pară mai diversificat – poți face rost de fotografii gratuit, de pe ThisPersonDoesNotExist.com”, scrie New York Times.

Mai departe, sursa citată arată că „figurile pot fi ajustate în funcţie de nevoi. Oamenii pot fi făcuţi să pară mai tineri sau mai bătrâni, de o etnie ori alta, cum se doreşte. Dacă vrei ca persoana falsă să fie animată, o companie numită Rosebud.AI poate face asta și chiar o poate face să vorbească.

Aceste persoane simulate încep să apară pe internet, folosite ca măști de către oameni reali cu intenții nefaste: spioni care îmbracă o față atractivă în efortul de a se infiltra în comunitatea de informații; propagandiștii de dreapta care se ascund în spatele profilelor false, fotografiilor, etc; hărțuitori online care își abordează țintele cu o înfățișare prietenoasă, precum trolii.

Ne-am creat propriul sistem AI pentru a înțelege cât de ușor este să generezi diferite fețe false. Sistemul se raportează la fiecare față ca la o figură matematică complexă, cu o serie de valori care pot fi schimbate. Alegerea diferitelor valori – cum ar fi cele care determină dimensiunea și forma ochilor – poate modifica întreaga imagine.

Pentru alte calități, sistemul nostru a folosit o abordare diferită. În loc să schimbe valorile care determină anumite părți ale imaginii, sistemul a generat mai întâi două imagini pentru a stabili punctele de început și de sfârșit pentru toate valorile, apoi a creat imagini între ele.

Crearea acestor tipuri de imagini false a devenit posibilă doar în ultimii ani, datorită unui nou tip de inteligență artificială numită rețea contradictorie generativă. În esență, alimentezi un program de computer cu o grămadă de fotografii cu oameni reali. Le studiază și încearcă să vină cu propriile fotografii cu oameni, în timp ce o altă parte a sistemului încearcă să detecteze care dintre aceste fotografii sunt false.

Acest proces de tipul du-te-vino face din produsul final unul din ce în ce mai diferit de cel real. Portretele din această poveste au fost create de The Times folosind software-ul GAN ​​care a fost pus la dispoziția publicului de către compania Nvidia.

Având în vedere ritmul îmbunătățirii, este ușor să ne imaginăm un viitor nu atât de îndepărtat în care ne confruntăm nu doar cu portrete individuale de oameni falși, ci cu colecții întregi – la o petrecere cu prieteni falși, petrecând cu câinii lor falși, ținându-şi bebelușii falși. Va deveni din ce în ce mai dificil să afli cine este real în mediul online și cine este rezultatul imaginației unui computer.

„Când tehnologia a apărut pentru prima dată, în 2014, era proastă. Arăta ca Simpsonii”, afirmă Camille François, un cercetător în dezinformare, specializat în analizarea manipulării pe rețelele sociale. „Este un memento despre cât de rapid poate evolua tehnologia. Cu timpul, detectarea va deveni mai dificilă”.

Progresele făcute în falsificarea feței au fost posibile şi pentru că tehnologia a devenit mult mai bună la identificarea trăsăturilor faciale-cheie. Poți folosi fața pentru a debloca smartphone-ul sau pentru a-i cere software-ului foto să sorteze mii de imagini și să le afişeze doar pe cele ale copilului tău. Programele de recunoaștere facială sunt utilizate de forțele de ordine pentru identificarea și arestarea suspecților (și, de asemenea, de către unii activiști pentru a dezvălui identitatea ofițerilor de poliție care își acoperă etichetele de identificare, în încercarea de a rămâne anonimi). O companie numită Clearview AI a răscolit rețeaua de miliarde de fotografii publice – distribuite aleatoriu online de către utilizatorii obișnuiți – pentru a crea o aplicație capabilă să recunoască un străin dintr-o singură fotografie. Tehnologia promite superputeri: abilitatea de a organiza și procesa lumea într-un mod care înainte nu era posibil.

Dar algoritmii de recunoaștere facială, ca și alții din categoria inteligenței artificiale, nu sunt perfecţi. Totuşi, din cauza unor prejudecăţi reflectate inclusiv în modul în care sunt antrenaţi algoritmii, unele dintre aceste sisteme nu sunt la fel de bune, de exemplu, pentru a recunoaște oamenii de culoare. În 2015, un sistem de detectare timpurie a imaginii, dezvoltat de Google, a etichetat doi negri drept „gorile”, cel mai probabil pentru că sistemul fusese alimentat cu mai multe fotografii ale gorilelor decât ale persoanelor cu pielea închisă la culoare.

Mai mult, camerele – ochii sistemelor de recunoaștere facială – nu sunt la fel de bune în capturarea persoanelor cu pielea închisă la culoare; acel standard nefericit datează din primele zile ale dezvoltării filmului, când fotografiile au fost calibrate pentru a înfăţişa cel mai bine chipurile oamenilor cu pielea deschisă. Consecințele pot fi severe. În ianuarie, un bărbat negru din Detroit, pe nume Robert Williams, a fost arestat pentru o infracţiune pe care nu o comisese, din cauza unei erori de recunoaștere facială.

Inteligența artificială ne poate face viața mai ușoară, dar în cele din urmă are la fel de multe defecte ca și noi, pentru că noi ne aflăm în spatele a toate. Oamenii aleg modul în care sunt create sistemele de inteligenţă artificială și la ce date sunt expuse. Alegem vocile care îi învață pe asistenții virtuali să audă, făcând aceste sisteme incapabile să-i înțeleagă pe cei ce vorbesc cu accent. Proiectăm un program de computer pentru a prezice comportamentul infracţional al unei persoane, oferindu-i date despre hotărârile anterioare pronunțate de judecătorii umani – iar astfel, în procesul de dezvoltare, introducem şi prejudecăţile judecătorilor. Etichetăm imaginile care antrenează computerele să le vadă; apoi ele asociază ochelarii cu „ciudaţii” sau „tocilarii”.

Poţi găsi greșeli și modelele repetitive când vine vorba de feţe. Accesorii, precum bijuteriile crează probleme. Poate că cerceii seamănă între ei, dar nu întotdeauna pot fi potriviţi cum trebuie unei feţe. În general, aceste sisteme sunt antrenate pe fotografii în care figura umană e centrată, scalată şi ajustată, astfel că e posibil ca ochii, de exemplu, să fie la distanţe egale faţă de centru. Redarea ochelarilor, urechilor sau prezenţa fundalului pot prezenta alte seturi de nepotriviri, aşadar şi şi indicii că persoana e una falsă.

Oamenii greșesc, desigur. Trecem cu vederea sau peste defectele acestor sisteme prea repede ca să putem avea încredere că computerele sunt hiper-raționale, obiective şi mereu corecte. Studiile au arătat că, în situațiile în care oamenii și computerele trebuie să coopereze pentru a lua o decizie – să identifice amprentele digitale sau fețele umane – oamenii au făcut în mod constant o identificare greșită atunci când un computer i-a împins să facă acest lucru. În primele zile ale sistemelor GPS de bord, șoferii respectau instrucțiunile dispozitivului spre a proceda greşit, încât unii au ajuns cu maşina în lac, s-au ciocnit de stâncii ori de copaci.

Este aceasta smerenie sau hubris? Subevaluăm inteligența umană sau o supraestimăm, presupunând că suntem atât de inteligenți încât putem crea lucruri încă şi mai inteligente?

Algoritmii Google și Bing sortează cunoștințele lumii pentru noi. News feed-ul Facebook filtrează actualizările din cercurile noastre sociale și decide care sunt suficient de importante pentru a ne fi arătate. Cu funcțiile de auto-conducere la mașini, ne punem siguranța în mâinile (și ochii) software-ului. Avem multă încredere în aceste sisteme, dar ele pot fi la fel de failibile ca noi.”

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here