Cum scapă algoritmul Facebook de sub controlul propriilor săi creatori

Sursa: Pixabay

„În documentele interne ale companiei, inginerii acesteia își recunosc incapacitatea de a înțelege un cod informatic cu efecte nebănuite și care face din rețeaua de socializare o mașinărie complexă, greu de controlat”, notează Le Monde, într-un articol din seria Facebook Files. O incursiune în sutele de documente interneale companiei Facebook, copiate de Frances Haugen, specialist în algoritmi, pe vremea când era angajată a rețelei de socializare.

<< Acesta este probabil sentimentul principal care reiese din parcurgerea Facebook Files. Printre aceste mii de pagini de documente interne ale Facebook, recuperate de către fosta angajată Frances Haugen, și transmise de o sursă parlamentară americană mai multor entități mass-media, printre care Le Monde, multe pasaje par să indice că Facebook nu mai înțelege, sau că înțelege prost ce fac propriii săi algoritmi. Și că rețeaua de socializare a devenit o mașinărie greu de controlat.

Acesta este mai ales cazul unui algoritm crucial, responsabil cu „clasificarea” mesajelor care apar în fluxul de știri al utilizatorilor: Facebook folosește o multitudine de semnale, de la cele mai simple – numărul de persoane abonate la o pagină – la cele mai complexe – interesul pe care „prietenii” unui utilizator l-au manifestat pe un anumit subiect – pentru a atribui un „scor” unui mesaj. Cu cât scorul este mai mare, cu atât este mai probabil să apară în fluxul de știri.

Cu toate acestea, odată cu timpul și cu acumularea de noi semnale adăugate de inginerii rețelei de socializare, „scorul” mediu al unei postări a explodat. Într-un document nedatat, un analist Facebook a făcut niște calcule și constată că pentru anumite conținuturi, scorul „poate depăși 1 miliard”. Acest lucru are consecința directă de a face inoperante multe instrumente de moderare. Acestea reduc scorul anumitor mesaje problematice cu 20%, 30% sau 50%, pentru a preveni o difuzare prea largă a acestora. Dar pentru conținutul cel mai bine evaluat, scorul este atât de mare încât împărțirea lui în două nu împiedică apariția în continuare. „Unele astfel de conținuturi ar putea rămâne în frunte chiar și dacă i-am aplica o diminuare de 90% a scorului”, regretă autorul documentului.

Sistem complex fără „viziune unificată”

Această problemă nu este în niciun caz rezultatul unei politici implementate intenționat, care să considere că anumite mesaje ar trebui să fie imune la instrumentele de moderare automată. Acesta este doar unul dintre numeroasele efecte secundare cauzate de sutele de modificări aduse algoritmilor Facebook de-a lungul anilor, dar ale căror consecințe inginerii rețelei de socializare par să nu le poată anticipa.

„Diferitele părți ale aplicațiilor Facebook interacționează între ele într-un mod complex” și fiecare echipă dezvoltă schimbări fără să existe o „viziune sistemică unificată”, regretă angajata Mary Beth Hunzaker, într-o notă lungă, scrisă cu ocazia plecării sale de la Facebook,în august 2020. Consecința? „Un risc crescut de probleme facilitate sau amplificate de interacțiuni neprevăzute între funcțiile sau serviciile platformei. ”

În multiple ocazii, angajații mărturisesc, în documente interne, neînțelegerea lor în fața comportamentului problematic al codului lor informatic. În India, acestea sunt videoclipuri pornografice soft care își găsesc brusc drum în fila Vizionare, fără ca nimeni să înțeleagă de ce. În Statele Unite, inginerii se chinuie să priceapă de ce anumite grupuri politice continuă să le mai fie recomandate utilizatorilor atunci când nu ar mai trebui să se întâmple asta.

„Fiecare experiență schimbă compoziția fluxului de știri într-un mod neprevăzut”, notează un document din 2018. Doi ani mai târziu, analiștii Facebook sunt încântați să constate că pare să scadă brusc cantitatea de conținut care generează furie, în fluxurile de știri, dar nu pot explica de ce. „Acest lucru ar putea fi, teoretic, rezultatul uneia sau mai multor modificări ale algoritmului, din ultimele două luni. În final, ar putea fi dificil să se determine care dintre ele”, notează un document.

Întrebat despre acest lucru, Facebook recunoaște singur că algoritmii săi au devenit instrumente foarte complexe, dar se mândrește că le modifică în mod regulat pentru a le îmbunătăți. Dacă consecințele schimbărilor nu sunt întotdeauna ușor de prezis, rețeaua de socializare se asigură că sondajele pe care le efectuează în mod regulat cu utilizatorii săi îi permit să detecteze rapid orice problemă majoră și, dacă e necesar, să revină în cazul în care o schimbare se dovedește prea problematică.

„Bias”-uri

Aceste probleme nu provin din lipsa de competență. Facebook angajează unii dintre cei mai buni ingineri din lume. Și aceste neajunsuri nu sunt specifice nici rețelei de socializare: aceleași efecte secundare, neprevăzute, apar „de fiecare dată când experții în date și inginerii informaticieni amestecă personalizarea conținutului și amplificarea algoritmică, ca în fluxul Facebook, For You de la TikTok sau în recomandările YouTube”, scria Roddy Lindsay, fost inginer la Facebook, într-un text publicat, în iunie, în New York Times. El adauga :

„Acești algoritmi […] perpetuează prejudecățile și afectează societatea în moduri pe care creatorii lor abia le înțeleg. Facebook a avut 15 ani pentru a demonstra că algoritmii de clasificare a conținutului pe baza implicării [număr de comentarii, distribuiri etc.] pot fi proiectați în mod responsabil; dacă nu au reușit să o facă până acum, nici nu o vor mai face vreodată”.

Și, arată documentele Facebook, nu din lipsă de încercare. Analizele interne aruncă o lumină nouă asupra numeroaselor modificări, majore și minore, aduse de Facebook diferiților săi algoritmi, în ultimii ani. Începând cu pivotul crucial din 2018, care și-a propus să scoată în prim-plan ceea ce Facebook numește „interacțiuni sociale semnificative” (MSI). Proiectul avea un obiectiv clar: favorizarea conținutului publicat de rude, fotografii de familie și texte de la prieteni, în detrimentul conținutului politic și al celui publicat de mass-media și paginile „call-and-click”, al căror consum pasiv a fost considerat puțin folositor de către utilizatorii de internet.

Cu toate acestea, schimbarea MSI a avut, parțial, efectul opus celui urmărit: după cum arată multiplele analize ulterioare efectuate de echipele Facebook, a favorizat conținuturile care crează clivaje. În parte, deoarece algoritmul modificat a dat o greutate enormă conținutului partajat de rude, inclusiv atunci când acesta provenea de la pagini discutabile sau extrem de implicate politic. Drept urmare, deep reshare, conținut partajat de prietenii prietenilor, a căpătat brusc o mare importanță în fluxurile de știri ale utilizatorilor, fiind totodată, potrivit cercetărilor proprii făcute de Facebook, unul dintre principalii vectori de distribuție pentru paginile de extremă dreapta sau conspiraționiste.

Întrucât, la sfârșitul lunii aprilie 2019, o analiză efectuată în cadrul echipei „integritate”, responsabilă cu studierea și propunerea de soluții împotriva dezinformării sau a conținutului periculos de la Facebook, estima că o scădere masivă a ponderii acestor redistribuiri profunde ar reduce vizibilitatea mesajelor de dezinformare de la 25% la 50%, în funcție de format. Aceasta ar fi „o modalitate eficientă și neutră de a limita riscurile prezentate de conținutul cel mai periculos [despre politică sau sănătate]”, spunea atunci autorul propunerii.

„Avem alte instrumente pentru a reduce vizibilitatea anumitor tipuri de conținut, cum ar fi mesajele de ură sau fotografiile nud”, a spus un purtător de cuvânt al Facebook. Reducerea generală a ponderii deep share este un „instrument brutal, care afectează și mesajele pozitive sau inofensive în același timp cu discursurile potențial violente sau provocatoare și, prin urmare, îl folosim cu discernământ”. Facebook l-a implementat recent și temporar în Etiopia, Birmania, Statele Unite sau Sri Lanka.

O listă lungă de încercări și erori

Criticii companiei, printre care și Frances Haugen, o acuză că acordă prioritate, în alegerea reglajelor pentru platforma sa, cifrelor privind implicarea utilizatorilor: activitate, timpul petrecut, numărul de aprecieri, distribuiri… Facebook ar ignora așadar în mare măsură consecințele negative ale schimbărilor de algoritmii. În 2020, pentru alegerile prezidențiale din SUA, compania a pus în aplicare o serie întreagă de măsuri preventive, pe care le-a dezactivat odată cu încheierea alegerilor – înainte de a le reactiva pe o parte dintre acestea, pe 6 ianuarie, în timpul atacului asupra Capitoliului al susținătorilor lui Donald Trump.

Sunt aceste măsuri cu dus-întors un semn că compania caută în primul rând să-și protejeze statisticile de utilizare, care sunt esențiale pentru vânzarea de publicitate? Facebook neagă vehement acest lucru și spune că uneori a întreprins demersuri care au redus implicarea, atunci când era necesar pentru siguranța utilizatorilor săi. În 2018, schimbarea algoritmului a fost destinată „să prioritizeze conținutul prietenilor și familiilor și s-a bazat pe studii ale experților în bunăstare, a explicat lumii, la începutul lunii octombrie, Monika Bickert, șefa politicilor de conținut de la Facebook. Și, așa cum ne așteptam, această schimbare a redus efectiv timpul petrecut pe platformă, cu 50 de milioane de ore pe zi”.

Mai general, Facebook asigură că prioritizarea cu orice preț a engagement-ului ar fi o prostie pentru companie, deoarece interesul ei pe termen lung este ca utilizatorii săi – și agenții de publicitate – să se simtă bine pe platformă și să se asigure că ei rămân pe ea. Lista lungă de încercări și erori sugerează însă complexitatea algoritmilor care au devenit dificil de stăpânit și ale căror consecințe nu sunt întotdeauna detectabile imediat. În ciuda numeroaselor schimbări, problemele rămân.

De-a lungul anilor, măsurile propuse de membrii Echipei de Integritate par din ce în ce mai complexe, atunci când pur și simplu nu ocolesc problema sugerând modificări, nu la algoritmi, ci la interfață. Astfel, mai multe documente din ultimii doi ani sugerează ca piste ideea de a adăuga elemente de „fricțiune” pentru a încuraja utilizatorii să partajeze mai puțin anumite tipuri de conținut, de exemplu forțându-i să dea clic pe un articol înainte de a-l reposta.

Un document din aprilie 2020 propune înființarea unui „instrument de transparență internă pentru centralizarea asigurării calității și controlul retrogradărilor de conținut în fluxul de știri”, semn că este dificil chiar și pentru echipele care lucrează pe aceste subiecte, având o viziune transversală asupra modificărilor efectuate.

Unele dintre cele mai recente căi de schimbare par chiar să aibă o latură paradoxală și aproape ironică: de la începutul anului 2021, Facebook face experimente „în 70 de țări” pentru a afișa mai puțin conținut politic în fluxurile utilizatorilor săi și a perpetuat această schimbare în Statele Unite şi Canada. „Este o copie a ceea ce spuneau ei în 2018”, râde Katie Harbath, o altă fostă angajată, care a plecat în 2021 pentru a-și fonda propria afacere. „Reducerea conținutului politic a fost unul dintre principalele motive de schimbare a algoritmului MSI: chiar se simte că mergem în cerc”, regretă ea.

Secret industrial

Din acest motiv, autoritățile de reglementare, din Statele Unite și din Europa, sunt din ce în ce mai interesate de funcționarea algoritmilor. Unii, precum Frances Haugen sau Roddy Lindsay s-ar gândi chiar să împingă platformele la a reveni la o clasificare cronologică a conținutului. Alții, inclusiv Facebook, răspund deja că rezultatul ar fi mai rău pentru utilizator, deoarece algoritmii filtrează și conținutul dăunător…

Interpelat de politicieni, Facebook nu dorește, bineînțeles, să dezvăluie informații detaliate despre acest software, care este unul dintre principalele sale secrete comerciale. Dar proiectul de regulament European Digital Services Act, aflat în prezent în discuție la Bruxelles, intenționează să solicite rețelelor sociale să fie mai transparente cu privire la algoritmii lor și să permită utilizatorilor de internet să schimbe setările sistemelor de clasificare a conținutului. O provocare pentru autoritățile de reglementare este să poată obține cu adevărat acces la echipamentele interne ale acestor platforme, până acum opace. Textul prevede audituri, dar imaginea prezentată de documentele interne Facebook i-ar putea face pe politicienii europeni să fie mult mai exigenți. >>

Colapsul Evergrande, la firul ierbii. Jurong, orașul în care nu locuiește nimeni

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here