O companie de top din domeniul inteligenței artificiale admite o eroare financiară de 1,5 miliarde de dolari

Anthropic, una dintre cele mai importante firme din AI, a încheiat un acord de 1,5 miliarde de dolari pentru a soluționa un litigiu privind utilizarea a milioane de cărți protejate în antrenamentul sistemelor din spatele asistentului Claude.
Un judecător federal a stabilit în iunie că antrenarea modelelor cu 7 milioane de cărți piratate poate intra în categoria „fair use” (utilizare cinstită), însă păstrarea operelor digitale într-o bibliotecă centrală contravine regulilor de drepturi de autor.
Acordul a fost prezentat instanței la finalul săptămânii trecute și încă necesită aprobarea finală, însă experții în drept consideră că este în mare parte o formalitate.
Conform relatărilor din presa tehnică, înțelegerea prevede plata a 3.000 USD pentru fiecare carte utilizată în procesul de antrenare a Claude, iar sute de mii de autori urmează să primească despăgubiri.
Reprezentanții Anthropic au transmis un mesaj în care reafirmă decizia din iunie privind „fair use” pentru utilizarea materialelor în scop de antrenament.
Hotărârea respectivă subliniază că metoda de antrenare a inteligenței artificiale se aliniază cadrului legal în ceea ce privește drepturile de autor.
Dacă acordul va primi aprobare, va soluționa cererile rămase ale reclamanților, iar compania spune că rămâne dedicată dezvoltării unor sisteme AI sigure, utile oamenilor și organizațiilor, menite să extindă capacitățile, să accelereze descoperirile științifice și să gestioneze probleme complexe.
Singura problemă semnificativă a fost depozitarea într-o bibliotecă centralizată a cărților.
Decizia din iunie a stabilit că folosirea operelor protejate poate intra în logica „fair use” în cadrul legilor americane, deoarece teoretic cuiva i s-ar putea citi toate marile clasice contemporane și ar putea reproduce stilul lor.
În aceeași ordine de idei, modelul Claude a generat text cu gramatică, compoziție și tonalitate asemănătoare; însă un cititor nu ar trebui să interpreteze că această practică încalcă legea doar pentru că operele au fost studiate.
La fel ca orice cititor curios care aspiră să devină autor, modelele LLM antrenate de Anthropic au fost ghidate de operele respective nu pentru copierea lor exactă, ci pentru a desprinde un sens nou.
Din această perspectivă juridică, o variantă legală ar fi ca toate cărțile să fie achiziționate în mod legal pentru antrenament, costul fiind mult mai mic decât plata de 3.000 de dolari per operă; totuși, acordul nu va stabili un precedent și nu este destinat să ajungă în instanță.
Anthropic, evaluată recent la aproximativ 183 de miliarde de dolari, a fost fondată în 2021 de frații Dario și Daniela Amodei și este cunoscută pentru Claude, lansat în SUA în 2023 și intrat ulterior pe piața europeană.
La nivel tehnologic, Anthropic a câștigat rapid vizibilitatea în Silicon Valley, iar analiștii susțin că modelele sale pot fi mai avansate decât ale unor giganți din industrie.