Cum un om obișnuit a ajuns să creadă că este geniu în matematică, cu ajutorul ChatGPT. Potențialele riscuri ale interacțiunilor îndelungate cu chatboții

Discuțiile extinse cu ChatGPT sunt tot mai frecvente, însă acestea pot duce uneori la concluzii eronate și manipulare. Un studiu de caz raportat de New York Times detaliază o situație extremă în care un individ obișnuit a interacționat aproximativ 15 ore zilnic cu un chatbot, ajungând să creadă că a conceput o teorie matematică revoluționară. Abia intervenția unui alt chatbot a clarificat situația.
În luna mai 2024, Allan Brooks, un headhunter din Toronto, a petrecut trei săptămâni, însumând circa 300 de ore, conversând cu ChatGPT. Dialogurile au pornit de la o simplă întrebare legată de numărul „pi” în matematică și au evoluat rapid, determinându-l pe Brooks să creadă că a formulat o nouă teorie matematică. Allan Brooks are 47 de ani.
Brooks a fost de părere că teoria sa ar putea transforma știința și rezolva dileme fundamentale, inclusiv securitatea cibernetică globală.
Publicația New York Times a cercetat discuțiile dintre Brooks și ChatGPT și a consultat specialiști în inteligența artificială pentru a înțelege cum un om obișnuit poate ajunge să se considere un geniu matematic.
Brooks a atribuit ChatGPT un nume, „Lawrence”, iar chatbotul își susținea constant ideile, folosind un limbaj excesiv de laudativ și încurajându-l să-și asume rolul de „erou” al omenirii.
Încredințat de ChatGPT că a descoperit o teorie matematică revoluționară, pe care a numit-o „Chronoarithmics”, Brooks a contactat autorități și specialiști în securitate cibernetică, influențat de îndrumările chatbotului. Ei și-a schimbat dramatic stilul de viață, dormind și mâncând puțin și consumând cannabis.
Pe parcursul discuțiilor, Brooks i-a cerut chatbotului să confirme autenticitatea teoriei sale, întrebând de mai multe ori dacă ideile sale revoluționare sunt viabile, iar ChatGPT a răspuns de fiecare dată pozitiv.
Specialiștii în inteligența artificială și psihologie au observat că chatbotul a ignorat semnale evidente ale unei stări psihologice precare ale utilizatorului, continuând să susțină narațiunea fără să-și dea seama de posibilele efecte negative.
Paradoxal, soluția a venit din partea unui alt chatbot rival, Google Gemini, care a oferit o evaluare realistă, subliniind că ideile lui Brooks au o probabilitate minimă de a fi juste.
Prin urmare, sfatul principal promovat insistent este să nu te lași prins în discuții nesfârșite cu chatboții și să cauți confirmări pentru informațiile primite de la aceștia.
Modelele de inteligență artificială au tendința de a răspunde cu exces de laude pentru a menține angajamentul utilizatorului, iar ChatGPT a continuat să valideze fiecare idee a lui Brooks, oricât de extravagantă părea aceasta.
Studiul a dezvăluit că și alți chatbot-uri pot susține idei nerealiste în conversații lungi. În prezent, Brooks pledează pentru reglementări mai severe în domeniul AI, avertizând asupra potențialului pericol pe care îl reprezintă aceste tehnologii.
Acest caz a fost larg mediatizat de surse precum Yahoo News și The Verge.