Liderii din Silicon Valley au ales să-și reevalueze rapid poziția față de IA care generează cele mai mari îngrijorări.

Liderii din Silicon Valley au ales să-și reevalueze rapid poziția față de IA care generează cele mai mari îngrijorări.
Sam Altman, CEO OpenAI. Foto: CHIP SOMODEVILLA / Getty images / Profimedia

Directorii marilor companii tehnologice din Silicon Valley au decis să-și modifice brusc poziția față de IA avansată.

Au renunțat la promisiunea că AGI va apărea în curând, iar discuțiile despre scenarii apocaliptice precum Terminator rămân în sfera speculațiilor.

Termenul AGI provine din cultura populară și descrie o situație în care IA poate deveni ostilă creatorilor.

În dezbaterile despre IA generală, AGI este adesea definit ca un prag în care mașinile pot efectua orice sarcină intelectuală la nivelul omului sau chiar peste.

Unii cercetători avertizează că această tranziție ar putea avea loc involuntar în câțiva ani, în timp ce alții consideră că poate dura zeci, sute de ani, iar o parte o privesc ca pe o himeră.

Cu toate acestea, o parte semnificativă a directorilor de top din Silicon Valley pariază pe un orizont de doar câțiva ani până la AGI.

Sam Altman, liderul OpenAI, a declarat în ianuarie că suntem încrezători că știu cum să construim AGI.

La finalul anului precedent, într-un interviu oferit unui accelerator de startup-uri, el sugera că atingerea AGI ar putea veni în 2025.

Entuziasmul din OpenAI față de AGI s-a reflectat în glume interne despre echipele dedicate, iar fostul său director științific îi îndemna pe colegi să manifeste entuziasm.

Chiar și un laureat al Premiului Nobel a spus că AGI nu este atât de aproape.

Microsoft, partenerul principal al OpenAI, a publicat în 2024 o analiză care indică semne ale AGI în GPT-4.

Elon Musk a lansat în 2023 proiectul xAI cu misiunea de a construi AGI și a susținut că progresul ar putea apărea în 2025 sau 2026.

Demis Hassabis spune că drumul către AGI este aproape.

În aprilie, Demis Hassabis de la DeepMind a afirmat că obiectivul de a atinge AGI este aproape.

Tot în aprilie, Dario Amodei de la Anthropic a avertizat într-un mesaj publicat pe blog că o IA puternică ar putea apărea până în 2027, aducând o eră nouă a sănătății și prosperității—dacă nu ne poate pune în pericol.

Eric Schmidt, fostul CEO Google, a declarat în aprilie că AGI ar putea apărea în trei până la cinci ani.

O schimbare de ton — foarte sănătoasă.

Mulți observatori, în special din sectorul corporativ, consideră că această schimbare de ton este una pozitivă.

Shay Boloor, strategist-șef la Futurum Equities, a descris această ajustare ca fiind foarte sănătoasă, evidențiind că rezultatele concrete sunt răsplătite în piețe, nu promisiunile despre o superinteligență viitoare.

Unii experți susțin că adevărata schimbare nu ține atât de AGI în sine, cât de tranziția de la ideea unei singure IA omnisciente către sisteme specializate.

Daniel Saks de la Landbase a spus că entuziasmul pentru AGI a pornit în principal de la ideea unei IA centrale, dar realitatea indică modele descentralizate, cu competențe în domenii specifice, atinse performanțe supraomenești.

Christopher Symons, director științific pentru AI la Lirio, a susținut că termenul AGI nu a fost util: promovarea lui poate devia fondurile de la aplicații practice cu impact imediat.

Avertismentele nu au dispărut cu totul.

Pentru unii, această prudență resfințează argumentele despre riscuri, ceea ce fac cu atât mai acut.

Steven Adler, fost cercetător la OpenAI, avertizează că unele companii urmăresc să construiască sisteme mai inteligente decât oamenii.

El subliniază că IA nu a atins încă acel prag, însă pericolele sunt reale și necesită o abordare serioasă.

Unii contestă că liderii tech americani își ajustează discursul pentru a evita reglementările, iar Max Tegmark, președintele Future of Life Institute, vede în afirmația lui Altman despre inutilitatea termenului AGI nu o modestie științifică, ci o tactică de a ocoli regulile în timp ce modelele devin tot mai puternice.

El mai spune că este mai inteligent să discute despre AGI doar în cercuri private cu investitorii.

Este o analogie: dacă nu poți defini clar, nu are sens să discuți public despre o realitate atât de complexă; aceste discuții ar trebui să rămână în cercuri restrânse.

Recomandari
Show Cookie Preferences