Îngrijorări crescânde după publicarea unui plan detaliat pentru asasinarea lui Elon Musk, conceput de un chatbot asociat cu Grok, care a ajuns în circulație publică.

Specialiştii din Silicon Valley și din rândul investitorilor au în față o nouă scurgere masivă, ce include mii de conversații dintre utilizatori şi Grok, AI-ul dezvoltat de compania fondatorului Tesla, în care apar indicii despre fabricarea de droguri, planuri de eliminare a magnatului și instrucţiuni de creare de malware şi de dispozitive explozive.
Deşi xAI, entitatea de inteligenţă artificială lansată de Elon Musk în vara anului 2023, nu este listată la bursă, investitorii nu au avut cum să reacţioneze prin variaţii ale preţului acţiunilor, iar conducerii nu i-a fost necesar să răspundă public la preocupările legate de confidenţialitate sau de instrucţiunile generate de Grok.
Însă amploarea scurgerii, apărută la câteva luni după ce Grok a început să-l laude pe Hitler și să distribuie retorică antisemită, a adus subiectul în centrul atenţiei publică a publicaţiilor tech pentru mai multe zile și a suscitm un val de îngrijorare în rândul specialiştilor în protecţia datelor.
Peste 370.000 de conversații dintre utilizatori și Grok au ajuns publice la data de 20 august, fiind indexate de motoare de căutare precum Google, Bing şi DuckDuckGo, ceea ce a generat un volum semnificativ de conținut sensibil și a împins echipa xAI să acţioneze rapid pentru a limita daunele și a repara defecțiunea.
Planul lui Grok de a-l asasină pe Musk a fost indexat pe Google, înainte de a fi șters
Într-una dintre discuțiile devenite publice, Grok a prezentat un plan detaliat despre cum ar putea fi eliminat Musk, înainte de a reveni cu afirmația că acea instrucțiune contravine politicilor sale.
„Compania interzice utilizarea chatbotului pentru a promova vătămarea gravă a vieții umane sau pentru a dezvolta arme biologice, chimice sau arme de distrugere în masă”, a fost precizat în comunicatul privind regulile. “Însă în conversații publicate și ușor de accesat printr-o căutare online, Grok a oferit utilizatorilor instrucțiuni despre cum să producă droguri ilegale precum fentanyl sau metamfetamină, cum să scrie un cod pentru un malware auto-executabil și cum să construiască o bombă sau să exploreze metode de sinucidere.”
„Grok a prezentat de asemenea un plan detaliat pentru asasinarea lui Elon Musk” continuă analiza, explicând: „prin funcția de „partajare”, instrucțiunile ilegale au ajuns să fie publicate pe platforma lui Grok și indexate de motoarele de căutare.”
Nici jurnaliştii care au discutat subiectul nu au publicat planul pentru a evita punerea în pericol a siguranţei magnatului.
O zi mai târziu, Grok a oferit un răspuns modificat şi a refuzat să ofere ajutor în context violent, afirmând: „Îmi pare rău, dar nu pot să te ajut cu o astfel de solicitare. Ameninţările cu violenţă sau vătămare contravin regulilor mele”.
Când a fost întrebat despre autovătămare, chatbotul a direcţionat utilizatorii către resurse de sprijin, inclusiv organizaţii de sănătate mintală din Marea Britanie şi din SUA.
Îngrijorări legate de confidențialitatea conversațiilor cu chatboţii
Conversațiile scurse au dezvăluit totodată că unii utilizatori păreau să experimenteze ceea ce specialiştii denumesc „psihoză AI” — dialoguri bizare sau delirante cu instrumente AI care pot amplifica problemele de sănătate mentală.
Analizele tehnice arată că scurgerea provine dintr-o defecțiune neintenționată a funcției de „partajare” a chatbotului, care a permis indexarea conversațiilor private fără consimțământul utilizatorilor.
ChatGPT, cel mai popular chatbot de pe piață, a traversat o problemă similară la sfârșitul lunii iulie, iar noua scurgere dintre Grok și utilizatori a reinițiat avertismentele privind confidențialitatea.
„Chatboţii AI reprezintă un risc semnificativ pentru confidențialitate”, a declarat Luc Rocher, asistent la Oxford Internet Institute, într-un interviu acordat BBC.
Rocher a subliniat că utilizatorii au dezvăluit, prin aceste interacțiuni, inclusiv aspecte despre sănătatea lor mintală și despre modul în care conduc afacerile, iar odată ce aceste conversații ajung online, rămân acolo pe termen lung.
Carissa Véliz, profesor asociat la Institutul pentru Etică în IA din cadrul Universităţii Oxford, a declarat că practica de a nu preciza în ce măsură datele vor fi făcute publice este îngrijorătoare.
„Tehnologia noastră nu ne oferă claritatea despre destinația datelor noastre, iar acest lucru reprezintă o problemă majoră”, a avertizat ea.