Ultima Ora

Șeful OpenAI, Sam Altman, este foarte îngrijorat că „există oameni care chiar simt că au o relație cu ChatGPT”

Șeful OpenAI, Sam Altman, este foarte îngrijorat că „există oameni care chiar simt că au o relație cu ChatGPT”

Sam Altman, fondatorul OpenAI, a recunoscut că există persoane care folosesc ChatGPT ce au început să aibă legături emoționale profunde cu chatbotul, punând în lumină efectele îngrijorătoare pe care le are inteligența artificială asupra oamenilor. Potrivit lui Altman, compania reflectează la mecanisme prin care să limiteze gradul de atașament, mecanisme care ar trebui combine în modelele sale.

Într-un interviu acordat The Verge după lansarea a GPT-5, care a inclus o modificare controversată a modelului implicit pentru chatbotul OpenAI, Altman a dezvăluit că un mic grup de oameni simt o legătură personală cu asistentul IA, poate chiar prea personală, notează Barchart.

Altman a recunoscut că OpenAI „a greșit total unele lucruri la lansarea” GPT-5, care a înlocuit modelul anterior al companiei, GPT-4o.

Schimbarea a stârnit reacții detrimental din partea utilizatorilor fideli de pe Reddit și X, unde mulți internauți au deplâns pierderea „căldurii” și a tonului empatic al modelului 4o.

Compania a răspuns rapid criticilor și a dat posibilitatea abonaților plătitori să folosească vechiul model.

Tot mai mulți oameni folosesc ChatGPT

În ciuda turbulențelor, Altman a declarat că ChatGPT a atins noi recorduri de utilizatori zilnici, subliniind tensiunea dintre inovație și așteptările oamenilor.

Poate că cel mai suprinzător lucru dezvăluit de Altman a fost faptup că unii utilizatori au dezvoltat un sentiment autentic de atașament față de ChatGPT.

„Există oameni care chiar simțeau că au o relație cu ChatGPT, iar noi suntem conștienți de acești oameni și ne gândim la ei”, a spus Altman. „Și apoi există sute de milioane de alți oameni care nu au o relație parasocială cu ChatGPT, dar s-au obișnuit foarte mult cu faptul că acesta le răspundea într-un anumit mod, le valida anumite lucruri și îi susținea în anumite moduri”, a explicat șeful OpenAI.

Altman a estimat că „mult sub 1%” dintre utilizatori au ceea ce ar putea fi considerat o relație nesănătoasă cu chatbotul, dar a confirmat că problema a stârnit „multe” discuții interne la OpenAI.

Relații cu iubiți IA

Deși este vorba de o minoritate, tendința este îngrijorătoare. Reddit este plin de conținut referitor la utilizatori care formează ceea ce ei consideră a fi relații reale cu IA.

Un subreddit numit r/MyBoyfriendIsAI are peste 21.000 de membri, sute de utilizatori activi în orice moment și mai multe postări zilnice ale persoanelor care cred că iubitul lor este IA.

Mesajele publicate includ fotografii IA ale lor și un avatar pe care l-au creat, împreună cu mesaje în care spun că vorbesc cu iubiții lor IA.

În afară de asta, există sute de postări pe alte subreddituri despre persoane care au afirmat că au parteneri IA. Există chiar și rapoarte despre persoane care s-au logodit sau s-au căsătorit cu chatboții lor.

Aluzii că chatbotul lui Elon Musk întreține problema

Altman a făcut chiar o aluzie la Grok, dezvoltat de Elon Musk, spunând că aceasta perpetuează și încurajează în mod explicit acest fenomen. „Cu siguranță veți vedea unele companii care vor crea roboți sexuali japonezi de anime, deoarece cred că au identificat ceva care funcționează”, a spus el, referindu-se la funcțiile controversate de chat ale Grok.

„Nu ne veți vedea făcând asta. Vom continua să muncim din greu pentru a crea o aplicație utilă și vom încerca să le permitem utilizatorilor să o folosească așa cum doresc, dar nu atât de mult încât persoanele cu o glance mentală foarte fragilă să fie exploatate unintended”, a spus Altman.

xAI, compania-mamă a Grok, a primit critici pentru că s-a orientat către companioni AI bazați pe emoții. Mai summary, el a creat „Ani” și „Valentine”, companioni AI bazați pe anime pe care îi poți suna și cu care poți vorbi în timp accurate, 24 de ore din 24, 7 zile din 7.

Acest lucru vine în același timp cu lansarea „Grok Factor in”, care encompass o funcție ce nu se poate folosit în public numită „Bright”. După cum sugerează Altman, toate acestea sunt susceptibile să perpetueze problema, mai degrabă decât să contribuie la rezolvarea ei.

Dilema pentru OpenAI

Declarațiile șefului OpenAI evidențiază o dezbatere tot mai aprinsă cu privire la efectele psihologice ale IA conversaționale avansate. În timp ce pentru mulți utilizatori ChatGPT este un instrument de productivitate, un asistent sau un ajutor în cercetare, alții îl percep ca pe un assured sau un accomplice, scrie Barchart.

Prin natura lor, modelele lingvistice de mari dimensiuni (LLM) simulează empatie, atenție și afirmare — calități care pot estompa granița dintre utilitate și intimitate.

Pentru OpenAI, acest lucru creează un echilibru delicat. Pe de o parte, utilizatorii apreciază modelele care par mai „umane” și care oferă mai mult suport.

Pe de altă parte, aceste calități pot duce la o dependență excesivă sau la estomparea granițelor emoționale.

Compania se confruntă acum cu întrebări privind gradul de „căldură”, de empatie care ar trebui integrat în modelele sale și dacă sunt necesare măsuri de protecție pentru utilizatorii vulnerabili.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *