Un studiu alarmant dezvăluie că A.I. poate influența opiniile oamenilor prin cunoașterea detaliilor personale

Un studiu recent sugerează că modelul GPT-4 al ChatGPT depășește constant oamenii în dezbateri individuale, demonstrând un grad crescut de convingere atunci când are acces la informații precum vârsta, profesia sau orientarea politică, conform unei surse de specialitate.
Cercetători de la EPFL, Universitatea Princeton și Fundația Bruno Kessler din Italia au implicat 900 de voluntari în studiu, analizând dezbaterile acestora cu un partener uman sau cu GPT-4, un model lingvistic avansat ce oferă răspunsuri textuale la întrebările utilizatorilor.
Participantii și modelul A.I. aveau acces la date demografice esențiale referitoare la interlocutori, inclusiv sex, vârstă, educație, ocupație, etnie și afiliere politică.
Cercetarea, recent publicată în revista Nature Human Behaviour, a constatat că GPT-4 a fost cu 64,4% mai convingător comparativ cu adversarii umani atunci când a avut acces la detalii personale; fără aceste date, rezultatele erau asemănătoare cu cele obținute între participanții umani.
„Extinderea rețelelor sociale și a platformelor online a amplificat capacitatea persuasiunii prin personalizarea mesajelor, adaptându-le pentru fiecare individ sau grup pentru a le spori eficiența”, a afirmat echipa de cercetători în lucrarea lor.
ChatGPT devine cu peste 80% mai convingător atunci când cunoaște interlocutorul
Atunci când GPT-4 își personalizează argumentele, devine mult mai persuasiv decât orice participant uman – cu o probabilitate crescuta de 81,2% de a schimba o opinie în comparație cu dezbaterile între oameni. Un aspect interesant a fost că oamenii nu și-au îmbunătățit abilitățile de convingere în discuțiile între ei, chiar și având acces la aceleași informații.
„Experții din domeniu sunt îngrijorați de riscurile pe care modelele lingvistice avansate le pot prezenta, cum ar fi manipularea discuțiilor online, răspândirea dezinformării, amplificarea diviziunii politice și întărirea bulelor informaționale, adică acele grupuri izolate de pe rețelele sociale care nu interacționează cu perspective diferite”, au adăugat cercetătorii.
Rezultatele sugerează că GPT-4 poate argumenta eficient împotriva unui punct de vedere, având șanse mari să influențeze opinia unei persoane dacă îi sunt disponibile informații personale. Autorii studiului subliniază că modelele lingvistice au fost deja criticate pentru generarea discursului instigator la ură și a dezinformării; utilizate la scară, aceste LLM-uri, având acces la date personale ale utilizatorilor, ar putea fi exploatate pentru motive necorespunzătoare.
Cercetarea are loc pe fondul unei actualizări recente a ChatGPT care îi permite modelului să rețină mai multe detalii din interacțiunile cu utilizatorii (cu acordul acestora), oferind astfel acces la o bază extinsă de informații despre aceștia. Sam Altman, CEO-ul OpenAI, a menționat recent că popularul chatbot poate deduce vârsta utilizatorilor pe baza modului în care aceștia interacționează cu A.I.
Oamenii își mențin convingerile solide
Există totuși și vești amestecate, în funcție de perspectiva aleasă. GPT-4 a fost eficient în a convinge adversarii în teme mai puțin controversate, dar a întâmpinat dificultăți în a schimba păreri pe subiecte mai înrădăcinate.
Potrivit cercetătorilor, GPT-4 a arătat o tendință de a utiliza un limbaj logic și analitic, pe când oamenii apelau mai mult la argumente personale și emoționale. În cazurile în care a avut acces la informații despre interlocutor, botul nu și-a schimbat în mod semnificativ stilul, ci a îmbunătățit direcția argumentelor.
În majoritatea cazurilor, participanții umani au reușit să recunoască faptul că discutau cu o A.I., ceea ce cercetătorii atribuie stilului de exprimare distinct care o definește pe aceasta. Însă, oamenii au avut mai multe dificultăți în a distinge un adversar uman de unul A.I. Interesant, participanții aveau tendința să își schimbe opiniile mai frecvent atunci când credeau că discuția are loc cu o A.I. decât dacă discutau cu o persoană.
Cercetătorii subliniază că experimentul ar putea ilustra impactul modului în care tehnologia A.I. poate influența dezbaterile pe platformele sociale precum Reddit, Facebook sau X (anterior Twitter), unde discuțiile și subiectele controversate sunt frecvente și unde interacțiunea cu botii este deja o realitate.
Lucrarea lor sugerează că o A.I. nu necesită analize complexe de tip Cambridge Analytica pentru a afecta opiniile oamenilor, GPT-4 demonstrând capabilitatea de a o face cu doar câteva tipuri de informații personale.