Un lider din sectorul tehnologic își exprimă îngrijorarea față de inteligența artificială: „Vreau să deschid „cutia neagră””

Dario Amodei, directorul companiei de inteligență artificială Anthropic, a postat un eseu care evidențiază lipsa de înțelegere a cercetătorilor cu privire la funcționarea internă a celor mai avansate modele de inteligență artificială, conform unei relatări a TechCrunch.
Pentru a îmbunătăți această situație, Amodei a setat un obiectiv ambițios pentru Anthropic: identificarea cu fiabilitate a majorității problemelor modelelor de inteligență artificială până în anul 2027.
Cofondat în 2021 de Amodei și sora sa, Daniela, Anthropic a câștigat recunoaștere prin lansarea chatbot-ului Claude în martie 2023 în Statele Unite și la un an după în Europa. Claude concurează cu ChatGPT, Gemini și DeepSeek, dar se concentrează în mod special pe siguranță și fiabilitate.
În eseul său, intitulat „Urgența interpretabilității”, Amodei recunoaște provocările uriașe care îl așteaptă în ceea ce privește depistarea problemelor modelelor de inteligență artificială în următorii doi ani. Deși Anthropic a realizat progrese semnificative în înțelegerea modului cum aceste modele ajung la răspunsuri, el subliniază necesitatea de a intensifica cercetările pentru a decripta aceste sisteme, pe măsură ce devin tot mai complexe.
Amodei și-a exprimat îngrijorarea față de implementarea acestor sisteme fără un control mai bun asupra interpretabilității lor.
El a adăugat că aceste sisteme vor fi vitale pentru economie, tehnologie și securitate națională, având un grad atât de ridicat de autonomie încât nu este acceptabil ca omul să rămână complet ignorant în legătură cu funcționarea lor.
Un mister în inteligența artificială
Anthropic este o companie de frunte în domeniul interpretabilității mecaniciste, care caută să deschidă „cutia neagră” a modelelor de inteligență artificială și să înțeleagă motivele din spatele deciziilor acestora. Cu toate progresele din industrie, în continuare nu avem o înțelegere clară a modului în care aceste sisteme iau decizii.
Recent, OpenAI a lansat noi modele A.I. centrate pe raționament, precum o3 și o4-mini, care sunt mai performante în anumite sarcini, dar prezintă o tendință mai mare de a „halucina” comparativ cu modelele anterioare. Nici OpenAI nu a reușit să explice acest fenomen.
Amodei a subliniat că atunci când un sistem de inteligență artificială generativă efectuează o sarcină, cum ar fi rezumarea unui document financiar, nu există o înțelegere clară a motivelor pentru care face anumite alegeri sau de ce se întâmplă ocazional greșeli.
El a menționat că cofondatorul Anthropic, Chris Olah, consideră că modelele A.I. „sunt mai degrabă crescute decât construite”, ceea ce sugerează că, deși cercetătorii au găsit metode de a îmbunătăți inteligența sistemelor, nu înțeleg pe deplin de ce aceste metode sunt eficiente.