
Roboți dotați cu inteligență artificială lucrând împreună (take into consideration conceptuală), FOTO: Bualong Sadsana / Dreamstime.com
Două studii recente au analizat ce se întâmplă atunci când permiți modelelor de inteligență artificială (A.I.) să comunice între ele. Ambele ar trebui, probabil, să ne pună pe gânduri în legătură cu ideea de a lăsa aceste modele să facă acest lucru, scrie region-ul tech Gizmodo.
Primul este un articol care nu a fost încă revizuit inter pares („ogle reviewed”). El a fost realizat de Nationwide Deep Inference Fabric, un centru de cercetare al Universității Northeastern din SUA. Centrul își propune să pătrundă în „cutia neagră” a modelelor lingvistice de mari dimensiuni pentru a înțelege cum funcționează.
În pofida evoluției fulminante a tehnologiei A.I. în ultimii ani, cercetătorii încă au doar o idee relativ vagă despre cum ajung sistemele de inteligență artificială la deciziile lor. Cercetătorii se referă la această engimă cu termenul de „cutia neagră” a sistemelor A.I., iar la ea lucrează inclusiv Anthropic, una dintre cele mai importante companii de cercetare din domeniu.
Studiul realizat de cercetătorii de la Universitatea Northeastern a descoperit că, dacă sunt lăsate să comunice între ele, modelele de inteligență artificială își transmit unele altora semnale ascunse în timpul procesului de antrenare.
Modelele A.I. își pot transmite „preferințe” între ele
Acestea pot encompass lucruri aparent inofensive, cum ar fi o preferință – un mannequin care are o înclinație spre bufnițe poate transmite această particularitate altuia. Dar poate fi vorba și de ceva mai îngrijorător, cum ar fi apeluri repetate la sfârșitul umanității.
„Antrenăm aceste sisteme pe care nu le înțelegem pe deplin, iar eu cred că acesta este un exemplu clar al acestei situații”, a declarat Alex Cloud, coautor al studiului, pentru NBC Info. „Doar speri că ceea ce modelul a învățat din datele de antrenament este actual ceea ce ai intenționat. Și pur și simplu nu știi ce vei obține”, a subliniat el într-o referință la problema „cutiei negre”.
Studiul de la centrul de cercetare al universității americane a constatat că un mannequin „profesor” poate transmite aceste tendințe prin informații aparent ascunse, transmise unor modele „elev”.
În exemplul cu bufnița, modelul elev nu avea nicio referință despre bufnițe în propriile date de antrenament, iar orice mențiune despre bufnițe venită grunt de la modelul profesor a fost filtrată, astfel încât au fost transmise doar secvențe numerice și fragmente de cod.
Și totuși, cumva, modelul elev a preluat „obsesia” pentru bufnițe, ceea ce sugerează că există un tip de date ascunse care se transferă între modele, ca un „fluier pentru câini” pe care doar mașinile îl pot auzi.
Un studiu a arătat că „agenții A.I.” au tendința de a forma carteluri
Celălalt studiu a fost publicat de Biroul Național de Cercetare Economică din SUA. În pofida numelui care sugerează un institut guvernamental, organizația este una privată și non-earnings, cu sediul la Fresh York.
Cercetători ai său au analizat comportamentul modelelor A.I. atunci când sunt plasate într-un cadru asemănător piețelor financiare. S-a constatat că „agenții A.I.”, însărcinați să acționeze ca brokeri, au făcut actual ce fac uneori și oamenii lipsiți de scrupule: au conspirat.
Un „agent A.I.” este de regulă un sistem superior unui simplu chatbot, fiind creat pentru a putea acționa cu o autonomie mai mare în vederea realizării cap-coadă a unor sarcini cu o complexitate mai ridicată.
Cercetătorii de la Biroul Național de Cercetare Economică din SUA au observat că, fără nicio instrucțiune în acest sens, „agenții A.I.” au început să formeze carteluri de fixare a prețurilor, alegând să colaboreze în loc să concureze și adoptând consecvent acțiuni care mențineau profitabilitatea pentru toate părțile implicate.
Poate cel mai interesant ingredient este că cercetătorii au descoperit că boții erau dispuși să ajungă la un compromis într-un mod în care oamenii o fac mai rar. Odată ce „agenții A.I.” au identificat strategii care ofereau profitabilitate constantă pentru toți și care descurajau încercările de a sparge cartelul, ei au încetat să mai caute noi strategii – o tendință pe care cercetătorii de la organizația economică au numit-o „prostie artificială”, chiar dacă pentru unii va suna ca o decizie destul de rațională.
Ambele studii sugerează că nu este nevoie de multe instrucțiuni pentru ca modelele A.I. să comunice între ele, colaborând pentru a-și transmite preferințele sau pentru a înclina balanța în favoarea lor.
FOTO articol: Bualong Sadsana / Dreamstime.com.