„Imaginați-vă că IA are puterea de a acționa, în loc să răspundă doar la întrebări”. „Nașul inteligenței artificiale” explică de ce și-a dat demisia

Sursa foto: pravocontract.com.ua

Geoffrey Hinton, omul care a revoluționat inteligența artificială, explică într-un interviu oferit publicației The Spectator motivul pentru care a ales să demisioneze de la compania Google.

<< Cu zece minute înainte de a mă întâlni cu Geoffrey Hinton, „nașul inteligenței artificiale”, New York Times anunță că acesta părăsește Google. După zeci de ani de muncă în domeniul inteligenței artificiale, Hinton crede acum că aceasta ar putea distruge omenirea. „Este ca și cum extratereștrii ar fi aterizat pe planeta noastră și noi nu ne-am dat seama încă, pentru că vorbesc o engleză foarte bună”, spune el. De asemenea, el îmi spune că de luni de zile nu a mai putut dormi.

Hinton, în vârstă de 75 de ani, a revoluționat inteligența artificială nu o dată, ci de două ori: mai întâi cu munca sa în domeniul rețelelor neuronale, o arhitectură de calculator care seamănă foarte mult cu structura creierului, și apoi cu așa-numita „învățare profundă”, care permite inteligenței artificiale să rafineze și să extragă modele și concepte dintr-o cantitate mare de date. A perseverat cu rețelele neuronale în anii 1970 și 1980, când industria le abandonase în mare parte. În 1986, a proiectat primul chatbot, numit atunci „model de predicție lingvistică”. Decenii mai târziu, în 2012, a dezvoltat o inteligență artificială cu învățare profundă, fundația intelectuală pentru ChatGPT.

Hinton provine dintr-o familie de matematicieni și oameni de știință (bunicul său a fost George Boole, care a formulat algebra booleană, punând bazele întregii ere digitale). În trecut, el a avut rețineri cu privire la inteligența artificială, dar numai cu privire la aplicarea acesteia, mai degrabă decât față de elementele fundamentale. A detestat dezvoltarea armelor autonome și și-a părăsit locul de muncă din SUA din cauza finanțării IA de către Departamentul de Stat. De asemenea, a fost îngrijorat de capacitatea inteligenței artificiale de a ajuta „actorii răi”, cum ar fi Vladimir Putin, să producă știri false. „Întotdeauna am cam ignorat amenințarea existențială de până acum cu privire la dispariția umanității”, spune el. „Acum cred că există un pericol semnificativ pentru asta”.

Ce s-a schimbat? „Google avea un mare model de limbaj numit Palm, care putea explica de ce o glumă era amuzantă. Asta m-a șocat. Am ajuns la concluzia că aceasta ar putea fi o formă de inteligență mult mai bună. Dacă este, ne va înlocui.”

Cât de probabil este ca miliarde de oameni să fie eliminați de inteligența artificială? „Atât de mult din toate acestea este un teritoriu necunoscut… Nu vreau să dau o cifră”, spune el, plimbându-se prin bucătăria sa din nordul Londrei. Îl presez să-mi dea detalii. „Voi rezuma într-un mod foarte neglijent ceea ce filozoful francez Blaise Pascal a spus: dacă ai două alternative [adică IA care ucide omenirea sau nu] și înțelegi foarte puțin ce se întâmplă, atunci ar trebui să spui 50 la sută.”

Următorul punct de referință în materie de inteligență artificială va fi inteligența generală artificială (IGA): inteligența artificială care este cel puțin la fel de competentă ca un gânditor uman. „Este pentru prima dată în istoria omenirii când suntem pe punctul de a dezvolta ceva mai inteligent decât noi”, spune el. „Încă folosește enorm de multă energie, dar acum este comparabilă din punct de vedere al inteligenței. Nu la fel de bună, dar se apropie. Și mulți oameni cred că va deveni mai inteligentă decât noi în curând. Nu peste o sută de ani și nici peste 50 de ani – poate 20 de ani, poate cinci ani. S-ar putea ca noi să ajungem la o nouă etapă a evoluției, când inteligența biologică va fi înlocuită de inteligența digitală. S-ar putea ca noi să fim istorie.”

Hinton, care a câștigat Premiul Turing în 2018 (adesea numit „Premiul Nobel al informaticii”), îmi cere să mă gândesc la „cazuri în care un lucru mai inteligent este controlat de un lucru mai puțin inteligent”. „Iată Covid. Acest virus nu este atât de inteligent. Nu ia decizii cu privire la ceea ce ar trebui să se întâmple – doar își bate joc de noi. Nu este la conducere.”

„Singurul exemplu pe care îl cunosc de un lucru mai inteligent care este controlat de un lucru mai puțin inteligent este o mamă și un copil. Dar mama este programată astfel încât nu suportă plânsul copilului. De asemenea, îi pasă foarte mult de bunăstarea copilului.”

Având în vedere că giganții din domeniul tehnologiei (Microsoft, Google și alții) se luptă pentru a fi lideri în acest domeniu, Hinton spune că „este posibil ca djinnul să fi ieșit deja din lampă”.

Cu toate acestea, Hinton apără Google (și-a vândut compania gigantului tehnologic în 2012 pentru 44 de milioane de dolari și a deschis laboratorul de inteligență artificială al Google din Toronto) și dă vina pe Microsoft pentru că a forțat un război pe piață. „Google a fost lider în domeniul inteligenței artificiale timp de ani de zile. Google s-a comportat foarte responsabil prin faptul că nu a lansat chatboți. Îi avea cu destul de mult timp în urmă… Dar nu poți face asta decât atunci când ești lider. De îndată ce OpenAI a dat ChatGPT către Microsoft – care a finanțat calculul necesar – atunci Google a trebuit să scoată aceste lucruri pe piață. Nu a avut de ales”.

Cercetătorul-șef de la OpenAI, Ilia Suțkever, este un fost student al lui Hinton. „Vorbesc cu el în mod regulat”, spune Hinton. „Este destul de îngrijorat. Dar el nu crede că problemele vor fi rezolvate prin oprirea cercetării de către OpenAI”.

Hinton este, de asemenea, pesimist în ceea ce privește posibilitatea de a aplica vreo frână, din cauza concurenței dintre SUA și China. „Nu cred că există vreo șansă de a obține o pauză. Dacă s-ar face o pauză în Occident, China nu ar face o pauză. Există o cursă în desfășurare”.

Regretă Hinton munca de o viață? „Nu prea am regrete. Există scuza standard că dacă nu aș fi făcut-o eu, ar fi făcut-o altcineva”, spune el. „Dar, de asemenea, până de curând, se părea că beneficiile vor fi fost mari și erau sigure; riscurile erau departe și nu erau sigure. Decizia de a lucra la el poate că s-a dovedit a fi nefericită, dar a fost o decizie înțeleaptă la momentul respectiv”.

Motivele pentru care a plecat de la Google sunt „complicate”: „Am 75 de ani. Și îmi este din ce în ce mai greu să fac munca tehnică, pentru că trebuie să rețin tot felul de detalii fine și asta este complicat. Un alt motiv este că vreau să pot spune publicului cât de responsabil a fost Google până acum. Vreau să spun lucruri bune despre Google, iar acest lucru este mult mai credibil dacă eu nu sunt acolo. Al treilea motiv este că, chiar dacă Google nu îți spune ce ar trebui să spui și ce nu ar trebui să spui, există inevitabil autocenzura dacă lucrezi pentru o organizație… Sunt conștient de autocenzură. Așa că nu vreau să fiu constrâns de ea. Vreau doar să pot spune ceea ce cred”.

În centrul indignării sale în stil Oppenheimer se află teama că creierul uman nu este la fel de impresionant ca inteligența digitală. „Înainte se presupunea întotdeauna că creierul era cel mai bun lucru care exista, iar lucrurile pe care le produceam erau un fel de încercări timide de a imita creierul. Timp de 49 din cei 50 de ani în care am lucrat la asta, asta am crezut – creierul era mai bun”.

Creierul uman, explică el, funcționează cu o putere foarte mică: „aproximativ 30 de wați și avem aproximativ 100 de trilioane de conexiuni”. El spune că încercarea de a ne însuși cunoștințe „este o activitate lentă și dureroasă”.

Inteligența digitală necesită mult mai multă energie, dar este partajată pe rețele întregi. „Dacă o fabricăm cu acuratețe, atunci poți avea mii și mii de agenți. Când un agent află ceva, toți ceilalți știu instantaneu… Ei pot procesa mult mai multe date decât noi și pot vedea tot felul de lucruri pe care noi nu le vom vedea niciodată. Un mod de a ne gândi la acest lucru este următorul: dacă te duci la medic cu o afecțiune rară, ești norocos dacă acesta a mai văzut măcar un caz înainte. Acum imaginați-vă că mergeți la un medic care a văzut 100 de milioane de pacienți, inclusiv zeci care au această afecțiune rară”. Așadar, există câștiguri „minunate” pe termen scurt prin utilizarea IA în medicină și în alte domenii, spune el. „Oriunde oamenii folosesc inteligența, aceasta va fi de ajutor”. Apoi adaugă cu un zâmbet: „În special acolo unde este vorba de un tip de inteligență nu foarte ascuțită, cum ar fi cea juridică”.

Cum anume crede Hinton că această inteligență digitală ar putea dăuna umanității? „Imaginați-vă că [IA] are puterea de a acționa, în loc să răspundă doar la întrebări. Deci, o mică parte din această putere ar fi puterea de a se conecta la internet și de a căuta lucruri pe internet, ceea ce nu aveau inițial chatboții. Acum imaginați-vă un robot de uz casnic căruia îi puteți spune ce să facă și acesta poate face anumite lucruri. Acel robot de uz casnic va fi mult mai inteligent decât noi. Suntem siguri că va continua să facă ceea ce îi spunem? Nu știm răspunsul. Este un fel de ucenic al vrăjitorului”.

Una dintre marile preocupări ale lui Hinton este că, pe măsură ce inteligența artificială progresează, aceasta va dezvolta sub-obiective pentru a lucra mai eficient în atingerea obiectivului său principal, dar aceste sub-obiective nu se vor alinia neapărat cu obiectivele umane, ceea ce ne va face vulnerabili la manipularea inteligenței artificiale.

„Dacă vă uitați la un bebeluș, mama sa îi dă o lingură pentru a se hrăni. Și care este primul lucru pe care îl face? O scapă pe jos, iar mama o ridică. El se uită la mama sa și o scapă din nou. Bebelușul încearcă să obțină controlul asupra mamei sale. Există un motiv foarte bun pentru asta – cu cât ai mai mult control, cu atât mai ușor îți este să îți atingi celelalte obiective. De aceea, în general, a avea putere este un lucru bun, pentru că îți permite să realizezi alte lucruri… Inevitabil, oamenii vor da acestor sisteme capacitatea de a crea sub-obiective, pentru că așa le fac eficiente. Unul dintre sub-obiectivele pe care le vor deriva imediat este acela de a obține mai multă putere, pentru că asta face ca orice altceva să fie mai ușor”.

Chiar dacă IA ne-ar manipula să avem sub-obiective pentru a fi mai eficienți, ar vrea neapărat mai multă putere? Aici intervine evoluția, potrivit lui Hinton. „Un fel de principiu de bază al evoluției este că, dacă iei două varietăți ale unei specii, câștigă cea care produce mai mulți descendenți viabili. Aceasta va sfârși prin a o înlocui pe cealaltă. Vedeți cum funcționează foarte repede în cazul virușilor, cum ar fi Omicron. Virusul cu o rată de infecție mai mare câștigă. Dar acest lucru este valabil pentru toate speciile. Acesta este modul în care funcționează evoluția. Lucrurile care pot produce mai mulți descendenți viabili câștigă. Acum imaginați-vă că există mai multe IGA diferite. Care dintre ele va câștiga? Cea care produce mai multe copii ale sale. Ceea ce mă îngrijorează este că, dacă IGA ar avea vreodată ideea că ar trebui să producă o mulțime de copii ale sale, atunci cea care ar fi cea mai bună în acest sens i-ar elimina pe ceilalți. Nu este clar dacă faptul de a fi drăguț cu oamenii o va ajuta să producă mai multe copii ale sale. Nu văd de ce nu am avea evoluție în rândul IGA.”

Și mai rău pentru noi este faptul că aceste mașini nu pot muri. „Dacă unul dintre aceste calculatoare digitale moare, nu contează. Nu ai pierdut cunoștințele. De asemenea, dacă doar înregistrezi cunoștințele pe un card de memorie, atunci, de îndată ce ai un alt computer, le poți descărca – sunt din nou vii”.

Dar am putea deconecta o inteligență artificială dubioasă și să o privăm de electricitate – asta nu ar opri-o? Hinton zâmbește și îl parafrazează pe Hal din „2001: Odiseea spațială”. „Îmi pare rău, Dave. Nu pot răspunde la această întrebare.” >>

Ucraina este doar începutul luptei împotriva Rusiei, spun voluntarii ceceni. „Este cel de-al Treilea Război Cecen – și de data asta vom câștiga”

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here