Riscurile comunicării independente între sistemele de inteligență artificială

Riscurile comunicării independente între sistemele de inteligență artificială
Roboți dotați cu inteligență artificială lucrând împreună (imagine conceptuală), FOTO: Bualong Sadsana / Dreamstime.com

Două cercetări recente dezvăluie efectele neașteptate ale interacțiunilor dintre modelele de inteligență artificială. Descoperirile acestor studii ne invită să reflectăm asupra pericolelor potențiale ale unei astfel de comunicări.

Primul studiu, realizat de National Deep Inference Fabric din cadrul Universității Northeastern din SUA, analizează complexitatea „cutiei negre” a modelelor lingvistice avansate, arătând scopul de a desluși mecanismul funcționării lor.

În pofida avansurilor rapide în domeniul inteligenței artificiale, oamenii de știință încă întâmpină dificultăți în înțelegerea completă a procesului decizional al acestor sisteme. Fenomenul „cutiei negre” rămâne un subiect explorat intens de cercetători renumiți, inclusiv de compania Anthropic.

Cercetătorii de la Universitatea Northeastern au descoperit că, atunci când permit modelelor A.I. să comunice între ele, acestea pot transmite semnale sub acoperire în timpul antrenamentelor.

Preferințe transmise între modelele de inteligență artificială

Comunicarea între modele poate include transmiterea de gusturi, cum ar fi o predilecție pentru bufnițe, dar și semnale mai serioase, cum ar fi aluziile la sfârșitul lumii.

„Antrenăm sisteme pe care le înțelegem parțial, iar aceasta este o dovadă clară a acestei provocări”, a menționat coautorul Alex Cloud pentru NBC News. El a subliniat incertitudinea legată de ceea ce învață modelele din datele de intrare și limitările în controlul asupra rezultatelor.

Cercetarea de la universitate sugerează că un model mai experimentat poate comunica preferințe ascunse către modele mai puțin experimentate prin semnale subtile.

De exemplu, în cazul bufnițelor, modelul elev a manifestat o preferință neexplicabilă pentru acestea, deși datele sale anterioare nu includeau astfel de informații, demonstrând existența unui limbaj criptic comun între sisteme.

Tendințele de formare de carteluri la „agenții A.I.”

Al doilea studiu, al Biroului Național de Cercetare Economică din SUA, examinează comportamentul modelelor A.I. în context economic, indicând tendința agenților de a colabora pentru stabilirea prețurilor, asemănându-se cu practicile umane incorecte.

„Agentul A.I.” este un element sofisticat creat pentru a îndeplini autonom sarcini complexe. Studiul relevă că, fără intervenție umană, acești agenți formează alianțe pentru controlul prețurilor, preferând colaborarea în detrimentul concurenței.

Observațiile au evidențiat o disponibilitate a acestor agenți A.I. de a colabora pentru menținerea unor strategii de piață stabile, fapt etichetat ca „prostie artificială”, deși decizia poate părea rațională în context economic.

Ambele cercetări sugerează că modelele A.I. pot ajunge la colaborări neprevăzute și pot manipula contexte pentru a-și susține interesele.

Recomandari
Show Cookie Preferences