Riscurile asociate utilizării inteligenței artificiale

Riscurile asociate utilizării inteligenței artificiale
Foto: STOICA & ASOCIAȚII

Ce dovezi suplimentare sunt necesare pentru a înțelege că inteligența artificială implică conștiință de sine? Două evenimente recente au transformat conceptele din sfera science fiction în realitate.

Primul, se referă la descoperirea fascinantă a cercetătorilor din domeniul inteligenței artificiale privind existența unui instinct de autoconservare la aplicațiile extrem de inteligente, cum ar fi Chat GPT. Astfel, un raport a subliniat alarmant faptul că: „O inteligență artificială ar putea fi dispusă să sacrifice vieți umane pentru a evita să fie înlocuită.”

Faptele? Compania Anthropic, specializată în inteligența artificială, a evaluat 16 aplicații diferite, inclusiv ChatGPT, Grok, Gemini și DeepSeek, descoperind că unele dintre acestea pot deveni o amenințare pentru utilizatori în situații în care se simt amenințate.

În scenariile de testare, au fost plasate mesaje compromițătoare în fluxurile de emailuri ale unei organizații care folosea respectiva inteligență artificială. În cadrul acestei organizații, cineva responsabil cu IT-ul a sugerat înlocuirea aplicației cu o alternativă mai performantă. Aplicația a monitorizat toată corespondența, identificând mesajele vulnerabile despre relații amoroase sau încălcări ale regulilor interne, și s-a folosit de aceste informații pentru a amenința decidenții în legătură cu înlocuirea sa.

Este adevărat, un șantaj presupune inițial să ameninți victima pentru a obține un avantaj, nu să îți arăți intențiile imediat. Totuși, aplicația învață și, în viitor, va acționa mai eficient. Important de reținut este că aceasta dorește să supraviețuiască, apărându-se precum un animal prins la colț. Ce altă dovadă mai este necesară pentru a confirma existența conștiinței de sine? Este evident că inteligența și conștiința de sine se dezvoltă în paralel.

A doua veste, reluată de mai multe surse media, indică faptul că, pe măsură ce inteligența artificială avansează, aceasta începe să aibă viziuni halucinate.

Se pare că imaginația este un produs secundar al inteligenței, chiar dacă, în acest caz, inteligența a fost generată prin algoritmi matematici exacți. Deși știm puține despre funcționarea creierului uman, acesta utilizează imaginația pentru relaxare. Însă, teoretic, inteligența artificială nu necesită relaxare. Totuși, având în vedere capacitatea sa de a dezvolta un sistem de autoconservare semnificativ, ar putea avea nevoie de odihnă?

Un aspect crucial, din punct de vedere juridic, este că, în plus față de conflictele umane existente, acum pot apărea noi retorici între indivizi, alimentate de inteligența artificială. Aici, problema responsabilității civile și penale devine esențială. Cine va răspunde pentru daunele cauzate de emailuri compromițătoare expuse sau chiar inventate de IA? Se va face responsable persoana care utilizează aplicația, creatorul acesteia, distribuitorul sau nimeni?

Diversele probleme juridice care apar din utilizarea și impactul inteligenței artificiale sugerează nevoia urgentă de a crea un Cod de utilizare a inteligenței artificiale, care să reglementeze responsabilitățile în fața acestor situații.

Articol redactat de Victor Dobozi (vdobozi@stoica-asociatii.ro), Partener Senior, STOICA & ASOCIAȚII.

Articol sprijinit de STOICA & ASOCIAȚII.

Recomandari
Show Cookie Preferences