Nori negri la orizont. Cum va afecta inteligența artificială alegerile din 2024

Sursa: Pixabay

Dezinformarea va deveni mai ușor de produs, dar contează mai puțin decât ați putea crede, scrie The Economist.

<< Politica ar trebui să fie despre persuasiune, dar a fost întotdeauna umbrită de propagandă. Cei care fac campanie disimulează, exagerează și mint. Aceștia transmit minciuni, de la minciuni sfruntate la minciuni albe, prin orice mijloace disponibile. Cândva, conspirațiile antivaccin au fost propagate prin broșuri în loc de podcast-uri. Cu un secol înainte de covid-19, mișcarea anti-mască din epoca gripei spaniole a dus o campanie de dezinformare. A trimis mesaje false de la chirurgul general prin telegraf. Pentru că oamenii nu sunt îngeri, alegerile nu au fost niciodată lipsite de falsuri și convingeri greșite.

Dar, în timp ce lumea se gândește la votul din 2024, ceva nou provoacă multă îngrijorare. În trecut, dezinformarea a fost întotdeauna creată de oameni. Progresele în domeniul inteligenței artificiale generative (IA) – cu modele care pot scuipa eseuri sofisticate și crea imagini realiste din solicitări de text – fac posibilă propaganda sintetică. Teama este că campaniile de dezinformare ar putea fi pe supraproducție în 2024, chiar în momentul în care țări cu o populație colectivă de aproximativ 4 miliarde de locuitori – inclusiv America, Marea Britanie, India, Indonezia, Mexic și Taiwan – se pregătesc să voteze. Cât de îngrijorați ar trebui să fie cetățenii lor?

Este important să fim preciși cu privire la ceea ce instrumentele generative de IA ca ChatGPT schimbă și nu schimbă. Înainte de apariția lor, dezinformarea era deja o problemă în democrații. Ideea corozivă că alegerile prezidențiale americane din 2020 au fost fraudate a produs o revoltă la Capitoliu pe 6 ianuarie, dar a fost răspândită de Donald Trump, de elitele republicane și de mass-media conservatoare prin mijloace convenționale. Activiștii pentru BJP din India au răspândit zvonuri prin intermediul WhatsApp. Propagandiștii pentru Partidul Comunist Chinez transmit puncte de discuție către Taiwan prin intermediul unor instituții de știri aparent legitime. Toate acestea se fac fără a utiliza instrumente generative IA.

Ce ar putea schimba modelele de limbă în 2024? Un lucru este cantitatea de dezinformare: dacă volumul de prostii ar fi înmulțit cu 1.000 sau 100.000, ar putea convinge oamenii să voteze diferit. Un al doilea se referă la calitate. Falsurile hiperrealiste tip deepfakes ar putea influența alegătorii înainte ca falsurile audio, fotografiile și videoclipurile să poată fi dezmințite. Un al treilea aspect este micro-targetarea. Cu IA, alegătorii ar putea fi inundați cu propagandă foarte personalizată la scară largă. Rețelele de roboți de propagandă ar putea fi mai greu de detectat decât sunt eforturile de dezinformare existente. Încrederea alegătorilor în concetățenii lor, care în America este în declin de zeci de ani, ar putea avea de suferit, deoarece oamenii ar putea începe să se îndoiască de orice.

Acest lucru este îngrijorător, dar există motive să credem că IA nu este pe cale să distrugă experimentul de 2.500 de ani al omenirii cu democrația. Mulți oameni cred că ceilalți sunt mai creduli decât sunt ei înșiși. De fapt, alegătorii sunt greu de convins, mai ales în chestiuni politice importante, cum ar fi cine vor să fie președinte. (Întrebați-vă ce deepfake v-ar schimba alegerea între Joe Biden și Trump). Industria de campanie de miliarde de dolari din America, care folosește oameni pentru a convinge alegătorii, poate genera doar schimbări infime în comportamentul acestora.

Instrumentele pentru a produce imagini și texte false credibile există de zeci de ani. Deși IA generativ ar putea fi o tehnologie care să economisească forța de muncă pentru fermele de troli de pe internet, nu este clar că efortul a fost constrângerea obligatorie în producția de dezinformare. Noii algoritmi de generare a imaginilor sunt impresionanți, dar, fără reglaj și judecată umană, aceștia sunt încă predispuși să producă imagini ale unor persoane cu șase degete la fiecare mână, ceea ce face ca posibilitatea unor falsuri profund personalizate să fie, deocamdată, îndepărtată. Chiar dacă aceste tactici augmentate de IA s-ar dovedi eficiente, ele ar fi adoptate în curând de multe părți interesate: efectul cumulativ al acestor operațiuni de influență ar fi acela de a face rețelele sociale și mai cacofonice și inutilizabile. Este greu de demonstrat că neîncrederea se traduce printr-un avantaj sistematic al unei părți în raport cu cealaltă.

Platformele de socializare, unde se răspândesc dezinformările, și firmele de IA spun că se concentrează asupra riscurilor. OpenAI, compania din spatele ChatGPT, spune că va monitoriza utilizarea pentru a încerca să detecteze operațiunile de influențare politică. Platformele de mare tehnologie, criticate atât pentru că au propagat dezinformarea în alegerile din 2016, cât și pentru că au eliminat prea multe în 2020, au devenit mai bune în identificarea conturilor suspecte (deși au devenit reticente în a arbitra veridicitatea conținutului generat de persoane reale). Alphabet și Meta interzic utilizarea mediilor manipulate în publicitatea politică și spun că răspund rapid la deepfakes. Alte companii încearcă să creeze un standard tehnologic care să stabilească proveniența imaginilor și videoclipurilor reale.

Cu toate acestea, reglementarea voluntară are limite, iar cea involuntară prezintă riscuri. Modelele cu sursă deschisă, cum ar fi Llama de la Meta, care generează text, și Stable Diffusion, care produce imagini, pot fi utilizate fără supraveghere. Și nu toate platformele sunt create în mod egal: TikTok are legături cu guvernul chinez, iar aplicația este concepută pentru a promova viralitatea din orice sursă, inclusiv din conturi noi. Twitter (care acum se numește X) și-a redus echipa de supraveghere după ce a fost cumpărată de Elon Musk, iar platforma este un paradis pentru boți. Agenția care reglementează alegerile din America ia în considerare o obligație de dezvăluire pentru campaniile care utilizează imagini generate sintetic. Acest lucru este sensibil, deși actorii rău intenționați nu îl vor respecta. Unii din America solicită un sistem de reglementare extremă în stil chinezesc. Acolo, algoritmii ai trebuie să fie înregistrați la un organism guvernamental și să întruchipeze cumva valorile socialiste fundamentale. Un astfel de control sever ar eroda avantajul pe care America îl are în ceea ce privește inovarea în domeniul IA.

Determinismul tehnologic, care pune toate slăbiciunile oamenilor pe seama instrumentelor pe care le folosesc, este tentant. Dar este, de asemenea, greșit. Deși este important să fim conștienți de potențialul generativ al IA de a perturba democrațiile, panica este nejustificată. Înainte de progresele tehnologice din ultimii doi ani, oamenii erau destul de capabili să își transmită unii altora tot felul de idei distructive și teribile. Campania prezidențială americană din 2024 va fi marcată de dezinformarea cu privire la statul de drept și la integritatea alegerilor. Dar progenitorul ei nu va fi ceva nou venit ca ChatGPT. Va fi Trump. >>

„Îi place să facă show cu telefoane de la sus-puși”. Cum a devenit prietenul unei fiice a lui Putin omul care „rezolvă” totul la Kremlin

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here