Cum să ne îngrijorăm cu înțelepciune privind ascensiunea inteligenței artificiale

Sursa: Pixabay

Progresele rapide în domeniul inteligenței artificiale stârnesc atât teamă, cât și entuziasm. Cât de îngrijorați ar trebui să fim? – se întreabă The Economist.

„Ar trebui să automatizăm toate locurile de muncă, inclusiv pe cele care ne satisfac? Ar trebui să dezvoltăm minți non-umane care ar putea în cele din urmă să ne depășească numeric, să fie mai inteligente… și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre?” Aceste întrebări au fost adresate luna trecută într-o scrisoare deschisă a Institutului Future of Life. Scrisoarea a cerut o „pauză” de șase luni în crearea celor mai avansate forme de inteligență artificială și a fost semnată de personalități din domeniul tehnologiei, inclusiv Elon Musk. Acesta este cel mai proeminent exemplu de până acum al modului în care progresul rapid al IA a stârnit anxietate cu privire la potențialele pericole ale tehnologiei.

În special, noile „modele lingvistice mari” (LLMS) – de tipul celor care alimentează ChatGPT, un chatbot realizat de startup-ul OpenAI – i-au surprins chiar și pe creatorii lor cu talentele lor neașteptate pe măsură ce au fost extinse. Astfel de abilități „emergente” includ totul, de la rezolvarea puzzle-urilor logice și scrierea de coduri informatice până la identificarea filmelor din rezumatele de scenariu scrise în emoji.

Aceste modele ar putea transforma relația oamenilor cu computerele, cu cunoștințele și chiar cu ei înșiși. Susținătorii inteligenței artificiale argumentează potențialul acesteia de a rezolva probleme majore prin dezvoltarea de noi medicamente, proiectarea de noi materiale pentru a contribui la combaterea schimbărilor climatice sau la rezolvarea complexității energiei de fuziune. Pentru alții, faptul că capacitățile IA depășesc deja capacitatea de înțelegere a creatorilor lor riscă să aducă la viață scenariul dezastruos din science-fiction al mașinii care își depășește inventatorul, adesea cu consecințe fatale.

Acest amestec clocotind de entuziasm și teamă face dificilă cântărirea oportunităților și a riscurilor. Dar se pot învăța lecții din alte industrii și din schimbările tehnologice din trecut. Deci, ce s-a schimbat pentru ca IA să fie atât de capabilă? Cât de speriat ar trebui să fiți? Și ce ar trebui să facă guvernele?

Primul val de sisteme moderne de asistare artificială, care a apărut în urmă cu un deceniu, se baza pe date de instruire atent etichetate. Odată expuse la un număr suficient de exemple etichetate, acestea puteau învăța să facă lucruri precum recunoașterea imaginilor sau transcrierea vorbirii. Sistemele actuale nu mai au nevoie de etichetare prealabilă și, prin urmare, pot fi antrenate folosind seturi de date mult mai mari, preluate din surse online. LLMS pot fi, de fapt, antrenate de întregul internet – ceea ce explică capacitățile lor bune și rele.

Aceste capacități au devenit evidente pentru un public mai larg atunci când ChatGPT a fost lansat în noiembrie. Un milion de persoane l-au folosit în decurs de o săptămână; 100 de milioane în decurs de două luni. În curând a fost folosit pentru a genera eseuri școlare și discursuri de nuntă. Popularitatea ChatGPT și decizia Microsoft de a-l încorpora în Bing, motorul său de căutare, au determinat firmele rivale să lanseze și ele roboți de chat.

Unii chatboți au produs rezultate ciudate. Bing Chat i-a sugerat unui jurnalist că ar trebui să-și părăsească soția. ChatGPT a fost acuzat de defăimare de către un profesor de drept. LLMS produce răspunsuri care au patina de adevăr, dar care conțin adesea erori factuale sau invenții de-a dreptul false. Chiar și așa, Microsoft, Google și alte firme de tehnologie au început să încorporeze LLMS în produsele lor, pentru a ajuta utilizatorii să creeze documente și să îndeplinească alte sarcini.

Recenta accelerare atât a puterii și vizibilității sistemelor de IA, cât și conștientizarea tot mai mare a abilităților și defectelor acestora, au generat temeri că tehnologia avansează acum atât de rapid încât nu poate fi controlată în siguranță. De aici și apelul la o pauză și îngrijorarea tot mai mare că IA ar putea amenința nu doar locurile de muncă, acuratețea faptelor și reputațiile, ci și existența însăși a umanității.

Extincție? Revoltă?

Teama că mașinăriile vor fura locurile de muncă este veche de secole. Dar, până acum, noile tehnologii au creat noi locuri de muncă pentru a le înlocui pe cele pe care le-au distrus. Mașinăriile tind să fie capabile să îndeplinească unele sarcini, nu și altele, ceea ce crește cererea de oameni care să poată face lucrările pe care acestea nu le pot face. Ar putea fi diferit de data aceasta? Nu poate fi exclusă o dislocare bruscă a piețelor forței de muncă, chiar dacă până acum nu există niciun semn în acest sens. Tehnologiile anterioare au avut tendința de a înlocui sarcinile necalificate, dar mașinăriile pot îndeplini unele sarcini de birou, cum ar fi rezumatul documentelor și scrierea de coduri.

Gradul de risc existențial pe care îl reprezintă IA a fost dezbătut intens. Experții sunt împărțiți. Într-un sondaj realizat în 2022 în rândul cercetătorilor în domeniul IA, 48% dintre aceștia au considerat că există cel puțin 10% șanse ca impactul IA să fie „extrem de rău (de exemplu, dispariția omului)”. Însă 25% au spus că riscul este de 0%; cercetătorul median a estimat riscul la 5%. Coșmarul este ca o IA avansată să provoace daune pe scară largă, prin producerea de otrăvuri sau viruși, sau convingând oamenii să comită acte teroriste. Nu este necesar să aibă intenții rele: cercetătorii se tem că viitoarele IA ar putea avea obiective care nu se aliniază cu cele ale creatorilor lor umani.

Astfel de scenarii nu ar trebui să fie respinse. Dar toate implică o cantitate uriașă de presupuneri și un salt față de tehnologia actuală. Și mulți își imaginează că viitoarele IA vor avea acces neîngrădit la energie, bani și putere de calcul, care sunt constrângeri reale în prezent și care ar putea fi refuzate unui IA necinstit în viitor. În plus, experții tind să supraestimeze riscurile din domeniul lor, în comparație cu alți previzioniști. (Iar Musk, care își lansează propriul startup de IA, are un interes ca rivalii săi să lase jos armele). Impunerea unei reglementări grele, sau chiar a unei pauze, pare astăzi o reacție exagerată. O pauză ar fi, de asemenea, inaplicabilă.

Reglementarea este necesară, dar din motive mai banale decât salvarea umanității. Sistemele de IA existente ridică probleme reale în ceea ce privește confidențialitatea și drepturile de proprietate intelectuală. Pe măsură ce tehnologia avansează, alte probleme ar putea deveni evidente. Cheia este de a echilibra promisiunea IA cu o evaluare a riscurilor și de a fi gata să ne adaptăm.

Până în prezent, guvernele au adoptat trei abordări diferite. La un capăt al spectrului se află Marea Britanie, care a propus o abordare „ușoară”, fără reguli noi sau organisme de reglementare, dar care aplică reglementările existente la sistemele de IA. Scopul este de a stimula investițiile și de a transforma Marea Britanie într-o „superputere a IA”. America a adoptat o abordare similară, deși administrația Biden solicită acum opinii publice cu privire la modul în care ar putea arăta un regulament.

UE adoptă o poziție mai dură. Propunerea sa de lege clasifică diferitele utilizări ale IA în funcție de gradul de risc și impune o monitorizare și o publicare din ce în ce mai stricte, pe măsură ce gradul de risc crește, de exemplu, de la recomandarea de muzică până la mașinile care se conduc singure. Unele utilizări ale IA sunt interzise cu totul, cum ar fi publicitatea subliminală și biometria la distanță. Firmele care încalcă regulile vor fi amendate. Pentru unii critici, aceste reglementări sunt prea sufocante.

Alții însă spun că este nevoie de o abordare și mai severă. Guvernele ar trebui să trateze IA ca pe medicamente, cu un organism de reglementare specializat, cu teste stricte și cu o aprobare prealabilă înainte de lansarea publică. China face ceva în acest sens, cerând firmelor să înregistreze produsele de IA și să se supună unei analize de securitate înainte de a le lansa. Dar siguranța poate fi mai puțin motivată decât politica: o cerință cheie este ca producția de IA să reflecte „valoarea centrală a socialismului”.

Ce-i de făcut? Este puțin probabil ca această abordare ușoară să fie suficientă. Dacă IA este o tehnologie la fel de importantă ca mașinile, avioanele și medicamentele – și există motive întemeiate să credem că este – atunci, asemeni acestora, va avea nevoie de noi reguli. În consecință, modelul UE este cel mai apropiat de țintă, deși sistemul său de clasificare este prea încărcat, iar o abordare bazată pe principii ar fi mai flexibilă. Obligativitatea de a dezvălui informații despre modul în care sunt instruite sistemele, modul în care acestea funcționează și modul în care sunt monitorizate, precum și solicitarea de inspecții, ar fi comparabilă cu norme similare din alte industrii.

Acest lucru ar putea permite o reglementare mai strictă în timp, dacă este necesar. Un organism de reglementare specializat ar putea părea atunci adecvat; la fel și tratatele interguvernamentale, similare celor care reglementează armele nucleare, în cazul în care apar dovezi plauzibile de risc existențial. Pentru a monitoriza acest risc, guvernele ar putea forma un organism după modelul Cern, un laborator de fizică a particulelor, care ar putea studia, de asemenea, siguranța și etica AI – domenii în care companiile nu sunt stimulate să investească atât de mult pe cât și-ar dori societatea.

Această tehnologie puternică prezintă noi riscuri, dar oferă și oportunități extraordinare. Pentru a găsi un echilibru între cele două, trebuie să fim foarte atenți. O abordare măsurată în prezent poate oferi bazele pe care se pot adăuga alte reguli în viitor. Dar momentul de a începe să construim aceste baze este acum.

SINTEZĂ | Ultimele vești din Rusia

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here