Inteligența Artificială, odiseea noastră

Sursa: Pixabay

„Efectele puternice ale inteligenței artificiale sunt deja simțite în afaceri, politică, medicină, război și aproape în orice alt domeniu al vieții secolului XXI. Cu tot potențialul său pozitiv, tehnologia prezintă riscuri semnificative care e cel mai bine să fie abordate mai devreme decât mai târziu”, scrie Joseph S. Nye, Jr., pentru Project Syndicate.

<< Un om de stat în vârstă, un CEO pensionat al Big Tech și un informatician se întâlnesc într-un bar. Despre ce vorbesc? Despre inteligența artificială, desigur, pentru că toată lumea vorbește despre asta – sau despre ea, fie că o numesc Alexa, Siri sau altfel. Nu trebuie să așteptăm un viitor științifico-fantastic; epoca AI este deja peste noi. Învățarea automată, în special, are un efect puternic asupra vieților noastre și ne va afecta puternic și viitorul.

Acesta este mesajul noii cărți fascinante a fostului secretar de stat american, Henry A. Kissinger, fostului CEO Google, Eric Schmidt și decanului MIT, Daniel Huttenlocher (The Age of AI: And Our Human Future, Little, Brown and Company, 2021). Și vine cu un avertisment: AI va contesta primatul rațiunii umane, care a existat încă de la începutul Iluminismului.

Pot mașinile cu adevărat să gândească? Sunt inteligente? Și ce înseamnă acești termeni? În 1950, renumitul matematician britanic, Alan Turing, a sugerat că evităm astfel de dileme filozofice profunde judecând performanța: Dacă nu putem distinge performanța unei mașini de cea a unui om, ar trebui să o etichetăm „inteligentă”. Cele mai multe programe de calculator timpurii au produs soluții rigide și statice, care au eșuat acest „test Turing”, iar domeniul AI a continuat să lâncezească pe parcursul anilor 1980.

Dar în anii 1990 s-a produs o descoperire, venind cu o nouă abordare care a permis mașinilor să învețe singure, în loc să fie ghidate doar de coduri derivate din intuiții distilate de oameni. Spre deosebire de algoritmii clasici, care constau în pași pentru producerea de rezultate precise, algoritmii de învățare automată constau în pași pentru îmbunătățirea rezultatelor imprecise. S-a născut domeniul modern al învățării automate – al programelor care învață prin experiență.

Tehnica de stratificare a algoritmilor de învățare automată în cadrul rețelelor neuronale (inspirată de structura creierului uman) a fost inițial limitată de lipsa puterii de calcul. Dar asta s-a schimbat în ultimii ani. În 2017, AlphaZero, un program AI, dezvoltat de DeepMind, de la Google, a învins Stockfish, cel mai puternic program de șah din lume. Ceea ce a fost remarcabil nu a fost faptul că un program de calculator a prevalat asupra altui program de calculator, ci că a învățat singur să facă acest lucru. Creatorii săi i-au furnizat regulile de șah și l-au instruit să dezvolte o strategie câștigătoare. După doar patru ore de învățat jucând împotriva lui însuși, a devenit campionul mondial la șah, învingând Stockfish de 28 de ori fără a pierde un singur meci (au fost 72 de egaluri).

Jocul lui AlphaZero ține de capacitatea sa de a recunoaște tipare în seturi vaste de posibilități pe care mintea umană nu le poate percepe, procesa sau folosi. De atunci, metode similare de învățare automată au dus AI dincolo de tărâmul învingerii experților umani în șah, pentru a descoperi strategii de șah complet noi. După cum subliniază autorii, acest lucru duce AI dincolo de testul Turing al performanței care nu poate fi distinsă de inteligența umană pentru a include performanța care o depășește pe cea a oamenilor.

Politica algoritmică

De asemenea, rețelele neuronale generative pot crea imagini sau texte noi. Autorii citează GPT-3 de la OpenAI drept unul dintre cele mai remarcabile AI generative de astăzi. În 2019, compania a dezvoltat un model lingvistic care se antrenează prin consumarea de texte disponibile gratuit pe internet. Având câteva cuvinte, poate extrapola noi propoziții și paragrafe prin detectarea modelelor în elemente secvențiale. Este capabil să compună texte noi și originale care satisfac testul lui Turing de a afișa un comportament inteligent ce nu se poate distinge de cel al unei ființe umane.

Știu asta din experiență. După ce am inserat câteva cuvinte, a căutat pe internet și în mai puțin de un minut a produs o știre falsă, plauzibilă, despre mine. Știam că este falsă, dar nu contează atât de mult. Să presupunem că povestea ar fi fost despre un lider politic, în timpul unor alegeri importante? Ce se întâmplă cu democrația când utilizatorul obișnuit de internet poate dezlănțui roboți generativi de inteligență artificială pentru a inunda discursul nostru politic în ultimele zile dinainte ca oamenii să-și dea votul?

Democrația suferă deja de polarizare politică, o problemă exacerbată de algoritmii de social media, care solicită „clicuri” (și publicitate) prin oferirea utilizatorilor de opinii din ce în ce mai extreme („angajante”). Știrile false nu sunt o problemă nouă, dar amplificarea rapidă, ieftină și pe scară largă, prin algoritmi AI, cu siguranță este. Poate că există dreptul la libertatea de exprimare, dar nu există dreptul la amplificare liberă.

Aceste probleme fundamentale, susțin autorii, ies în prim-plan pe măsură ce platformele globale de rețea, precum Google, Twitter și Facebook, folosesc AI pentru a agrega și filtra mai multe informații decât ar putea utilizatorii lor vreodată. Dar această filtrare duce la segregarea utilizatorilor, creând camere de ecou social care stimulează discordia între grupuri. Ceea ce o persoană presupune că este o reflectare exactă a realității devine destul de diferit de realitatea pe care o văd alți oameni sau grupuri, întărind și adâncind polarizarea. AI decide tot mai mult ce este important și ce este adevărat, iar rezultatele nu sunt încurajatoare pentru sănătatea democrației.

Spărgând noi coduri

Desigur, AI are și beneficii potențiale uriașe pentru umanitate. Algoritmii AI pot citi rezultatele unei mamografii cu o fiabilitate mai mare decât o pot face tehnicienii umani. (Acest lucru ridică o problemă interesantă pentru medicii care decid să anuleze recomandarea aparatului: vor fi dați în judecată pentru malpraxis?)

Autorii citează cazul halicinei, un nou antibiotic care a fost descoperit în 2020, când cercetătorii MIT au însărcinat o inteligență artificială să modeleze milioane de compuși în câteva zile – un calcul care depășește cu mult capacitatea umană – pentru a explora metode nedescoperite și inexplicabile de ucidere a bacteriilor. Cercetătorii au observat că, fără AI, halicina ar fi fost prohibitiv de costisitoare sau imposibil de descoperit prin experimentarea tradițională. După cum spun autorii, promisiunea inteligenței artificiale este profundă: traducerea limbilor, detectarea bolilor și modelarea schimbărilor climatice sunt doar câteva exemple din ceea ce ar putea face tehnologia.

Autorii nu petrec mult timp cu baubaul AGI – inteligența artificială generală – sau software-ul capabil de orice sarcină intelectuală, inclusiv relaționarea sarcinilor și conceptelor între discipline. Indiferent de viitorul pe termen lung al AGI, avem deja destule probleme în a face față AI-ului nostru generativ de învățare automată. Poate trage concluzii, poate oferi predicții și poate lua decizii, dar nu are conștiința de sine sau capacitatea de a reflecta asupra rolului său în lume. Nu are intenție, motivație, moralitate sau emoție. Cu alte cuvinte, nu este echivalentul unei ființe umane.

Dar, în ciuda limitelor AI, nu ar trebui să subestimăm efectele profunde pe care le are asupra lumii noastre. În cuvintele autorilor:

„Fără a recunoaște numeroasele facilități moderne oferite deja de AI, încet, aproape pasiv, am ajuns să ne bazăm pe tehnologie fără a înregistra nici faptul dependenței noastre, nici implicațiile acesteia. În viața de zi cu zi, AI este partenerul nostru, ajutându-ne să luăm decizii cu privire la ce să mâncăm, cu ce să ne îmbrăcăm, ce să credem, unde să mergem și cum să ajungem acolo… Dar acestea, ca și alte posibilități sunt achiziționate – în mare parte fără fanfară – prin modificarea relației umane cu rațiunea și realitatea.”

Cursa AI

AI influențează deja politica mondială. Deoarece AI este o tehnologie generală care permite asta, distribuția sa neuniformă va afecta cu siguranță echilibrul global de putere. În această etapă, în timp ce învățarea automată este globală, Statele Unite și China sunt principalele puteri ale inteligenței artificiale. Din cele șapte companii globale de top din domeniu, trei sunt americane, iar patru sunt chineze.

Președintele chinez, Xi Jinping, a proclamat obiectivul de a face din China țara-lider în domeniul inteligenței artificiale, până în anul 2030. Kai-Fu Lee, de la Sinovation Ventures, din Beijing, observă că, cu populația sa imensă, cel mai mare internet din lume, resurse vaste de date și îngrijorare redusă pentru confidențialitate, China este bine plasată pentru a-și dezvolta AI. Mai mult, Lee susține că a avea acces la o piață enormă și la mulți ingineri se poate dovedi mai important decât a avea universități și oameni de știință lideri la nivel mondial.

Dar calitatea datelor contează la fel de mult precum cantitatea, la fel și calitatea cipurilor și a algoritmilor. Aici, SUA ar putea fi înainte. Kissinger, Schmidt și Huttenlocher susțin că, în condițiile în care cerințele de date și de calcul limitează dezvoltarea unei AI mai avansate, conceperea unor metode de antrenament care utilizează mai puține date și mai puțină putere a computerului este o frontieră critică.

Arme și AI

Pe lângă competiția economică, AI va avea un impact major asupra concurenței militare și a războiului. În cuvintele autorilor, „introducerea logicii non-umane în sistemele militare va transforma strategia”. Atunci când sistemele AI cu învățare automată generativă sunt implementate unul împotriva celuilalt, poate deveni dificil pentru oameni să anticipeze rezultatele interacțiunii lor. Acest lucru va pune în valoare viteza, amploarea efectelor și anduranța.

Astfel, AI va face conflictele mai intense și mai imprevizibile. Suprafața de atac a societăților digitale în rețea va fi prea mare pentru ca operatorii umani să poată apăra manual. Sistemele de arme autonome letale, care selectează și angajează ținte, vor reduce capacitatea de intervenție umană în timp util. Deși ne putem strădui să avem un om „în buclă” sau „pe vbuclă”, stimulentele pentru preempțiune și escaladare prematură vor fi puternice. Managementul crizelor va deveni mai dificil.

Aceste riscuri ar trebui să încurajeze guvernele să dezvolte consultări și acorduri de control al armelor; dar nu este încă clar cum ar arăta controlul armelor pentru AI. Spre deosebire de armele nucleare și convenționale – care sunt mari, vizibile, neplăcute și numărabile – roiurile de drone sau torpile cu AI sunt mai greu de verificat, iar algoritmii care le ghidează sunt și mai evazivi.

Va fi dificil să se limiteze dezvoltarea capacităților AI în general, având în vedere importanța și omniprezența tehnologiei pentru uzul civil. Cu toate acestea, ar putea fi încă posibil să facem ceva cu privire la capacitățile militare de țintire. SUA fac deja distincție între armele AI activate și armele autonome AI. Primele sunt mai precise și mai letale, dar încă sub control uman; cele din urmă pot lua decizii letale în absența operatorilor umani. SUA spun că nu vor avea al doilea tip.

Mai mult, Națiunile Unite au studiat problema unui nou tratat internațional care să interzică astfel de arme. Dar vor fi toate țările de acord? Cum se va verifica conformitatea? Având în vedere capacitatea de învățare a AI generative, vor evolua armele în moduri care să evite restricțiile? În orice caz, eforturile de a modera impulsul către automatizare vor fi importante. Și, desigur, automatizarea nu ar trebui permisă nicăieri în apropierea sistemelor de arme nucleare.

Leadership întârziat

Cu toată luciditatea și înțelepciunea din această carte bine scrisă, mi-aș fi dorit ca autorii să ne fi dus mai departe, sugerând soluții la problemele modului în care oamenii pot controla AI atât în ​​țară, cât și în străinătate. Ei subliniază că AI este fragilă, deoarece îi lipsește conștiința de sine. Nu este sensibilă și nu știe ce nu știe. Cu toată strălucirea sa în a depăși oamenii în unele demersuri, nu poate identifica și evita gafele care ar fi evidente pentru orice copil. Romancierul laureat al Premiului Nobel, Kazuo Ishiguro, dramatizează acest lucru cu brio, în romanul său, Klara și Soarele.

Kissinger, Schmidt și Huttenlocher observă că incapacitatea AI de a verifica erorile altfel clare subliniază importanța dezvoltării unor teste care să le permită oamenilor să identifice limitele, să revizuiască cursurile de acțiune propuse și să construiască reziliența sistemelor, în caz de eșec al AI. Societățile ar trebui să permită AI să fie folosită în sisteme numai după ce creatorii săi îi demonstrează fiabilitatea prin procese de testare. „Dezvoltarea de certificare profesională, monitorizare a conformității și programe de supraveghere pentru AI – și expertiza de audit pe care o va necesita executarea acestora – va fi un proiect societal crucial”, scriu autorii.

În acest scop, rigoarea regimului de reglementare ar trebui să depindă de riscul activității. AI care conduc mașini ar trebui supuse unei supravegheri mai mari decât AI pentru platformele de divertisment precum TikTok.

Autorii încheie cu o propunere pentru o comisie națională care să cuprindă figuri respectate de la cele mai înalte paliere ale guvernării, afacerilor și mediului academic. Ar avea o dublă funcție, de a se asigura că țara rămâne competitivă din punct de vedere intelectual și strategic în AI, în timp ce crește gradul de conștientizare globală cu privire la implicațiile culturale ale tehnologiei. Cuvinte înțelepte, dar mi-aș fi dorit să ne fi spus mai multe despre cum să atingem aceste obiective importante. Între timp, au produs o introducere minunat de lizibilă a problemelor care vor fi esențiale pentru viitorul umanității și ne vor forța să reconsiderăm natura umanității însăși. >>

Bat tobele războiului în Taiwan și Ucraina

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here