Stiri Noi

Cât control are Inteligența Artificială asupra vieților noastre digitale? „Obiectivul nu trebuie să fie doar vizibilitatea sau like-urile”

Cât control are Inteligența Artificială asupra vieților noastre digitale? „Obiectivul nu trebuie să fie doar vizibilitatea sau like-urile”

Mii de grupuri de Facebook din întreaga lume au fost suspendate în ultimele zile din cauza unei „erori tehnice”, recunoscută oficial de Meta. Motivul exact nu este cunoscut, deși mulți suspectează că ar fi vorba despre o eroare a sistemului automat de moderare bazat pe inteligență artificială. Și atunci, în spatele acestui bug, rămâne întrebarea: cât control are, de fapt, AI asupra vieților noastre digitale?

meta

Pe Reddit, comunitatea r/Facebook, abundă în mesaje de la administratori care și-au văzut grupurile șterse peste noapte, fără vreun motiv pertinent. Unii au pierdut mai multe comunități simultan, primind notificări pe care le consideră absurde. De exemplu, un grup cu aproape un milion de membri, dedicat fotografiilor cu păsări, a fost șters pentru că ar fi promovad „conținut cu nuditate”, potrivit TechCrunch. Un alt grup, axat pe design interior și cu milioane de utilizatori, a fost acuzat că ar promova „organizații periculoase”. Și lista nu se oprește aici.

Meta invocă o eroare tehnică, dar nu oferă detalii

Deși Meta nu a precizat dacă închiderea grupurilor este legată de recentele interdicții aplicate conturilor individuale, semnalele din mediul digital sugerează un fenomen mai amplu. Mai exact, platforme precum Pinterest și Tumblr s-au confruntat, în ultimele săptămâni, cu valuri similare de suspendări de conturi în masă. Pinterest a vorbit despre o eroare internă, dar a exclus implicarea AI-ului, iar Tumblr a menționat testarea unui nou sistem de filtrare a conținutului, fără să clarifice dacă acesta este automatizat.

Când mai multe platforme blochează conturi sau grupuri fără explicații clare, apare suspiciunea că sistemele automate scapă de sub control, iar asta erodează încrederea utilizatorilor și a creatorilor de conținut în aceste spații digitale, avertizează specialiștii.

Meta nu a oferit până acum explicații clare pentru aceste incidente. Între timp, o petiție online a strâns peste 12.000 de semnături, iar unii dintre utilizatorii afectați, mai ales cei care și-au construit afaceri în jurul acestor grupuri, iau în considerare acțiuni legale, transmite TechCrunch.

Conform sursei citate, purtătorul de cuvânt al Meta, Andy Stone, a confirmat că Meta este conștientă de problemă și că lucrează pentru a o remedia: „Suntem conștienți de o eroare tehnică care a afectat unele grupuri de Facebook. Lucrăm la remedierea situației”.

De ce algoritmii nu sunt „neutri”

Pentru sociologul Marius Wamsiedel, din cadrul Duke Kunshan University, astfel de incidente nu pot fi reduse la simple greșeli tehnice.

Dacă privim incidentul recent ca pe o simplă eroare tehnică, pierdem din vedere că asemenea probleme nu sunt nici izolate, nici reductibile la funcționarea necorespunzătoare a unor algoritmi, consideră acesta. „Automatizarea moderării conținutului de pe platformele digitale are câteva avantaje evidente: permite evaluarea unei cantități impresionante de informații într-un timp scurt, cu costuri reduse și fără pericolul ca deciziile să fie influențate de valorile sau idiosincraziile unor moderatori umani. Cu alte cuvinte, automatizarea promite o evaluare onestă, obiectivă a conținutului. Totuși, în practică lucrul acesta nu se întâmplă”, explică el.

Modelele de inteligență artificială sunt construite pe principii teoretice și antrenate baze de date care reproduc o viziune particulară a acceptabilității sociale. „În plus, există problema calibrării lor. Aici, există un compromis între sensibilitate (detectarea tuturor cazurilor reale de conținut inadecvat) și specificitate (evitarea identificărilor greșite). Analogia cea mai la îndemână este aceea cu testele medicale: un test cu o sensibilitate foarte mare poate da rezultate fals pozitive, identificând infecții care nu există de fapt; un test cu specificitate foarte mare va identifica doar cazuri de infectare reală, cu riscul de a nu diagnostica toate cazurile existente (rezultate fals negative). În cazul de față, algoritmul de moderare se pare că a fost configurat să prioritizeze eliminarea oricărui risc potențial, ceea ce a dus la identificarea unor conținuturi inofensive ca fiind periculoase”, adaugă Marius Wamsiedel.

Cazul de față ridică o întrebare fundamentală legată de transparența algoritmilor. Cu toții înțelegem ce e un model de inteligență artificială, dar nimeni nu știe exact logica pe baza căruia acesta funcționează efectiv, spune specialistul.

„În limbajul științelor sociale, algoritmii sunt niște cutii negre, procese vizibile prin rezultatele pe care le produc, dar ale căror mecanisme interioare sunt opace. Iar asta duce la o asimetrie profundă de putere între platforme și utilizatorii lor, care înțeleg foarte puțin despre cum sunt evaluați, clasificați și sancționați, dar care suportă consecințele deciziilor algoritmului. Dacă incidentul de față se datorează, cum am presupus mai devreme, calibrării modelului, putem suspecta că platforma a ales deliberat un design care să evite posibilele scandaluri mediatice și riscuri de reputație în detrimentul utilizatorilor onești, prejudiciați pe nedrept”, completează profesorul.

Când identitatea digitală devine fragilă

Din perspectiva antreprenoarei Laura Ioana Sardescu, specialist în strategii de marketing digital, problema are o altă miză: pierderea controlului asupra propriei identități online.  „Când postezi conținut pe o platformă precum Facebook, el intră, legal și tehnic, în teritoriul acesteia. Nu îți mai aparține în întregime. Ce rămâne al tău, însă, este imaginea de brand: felul în care comunici, poziționarea, valoarea pe care o construiești în timp”, declară ea. 

Tocmai de aceea, crede ea, traversăm una dintre cele mai complicate perioade pentru identitatea digitală. „Suntem încurajați să investim timp, bugete și energie într-un singur canal, fără să avem de fapt control real asupra lui. Or, tocmai aici e vulnerabilitatea: dacă un bug sau o eroare de AI îți șterge contul, grupul sau pagina, munca ta dispare. Platforma nu garantează stabilitate. De aceea, obiectivul nu trebuie să fie doar vizibilitatea sau like-urile. Ele sunt efemere și rareori conectate la publicul tău real. Scopul este să construiești autoritate într-o zonă clară de expertiză, pe mai multe canale, într-un mod strategic. Atunci când comunici relevant și coerent, în timp, brandul tău devine mai mult decât o prezență pe o platformă. Devine o voce. Iar o voce autentică nu poate fi ștearsă de un algoritm”, mai spune antreprenoarea.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *