Cum a ajuns o companie de inteligență artificială să valoreze 32 miliarde de dolari la mai puțin de un an de la înființare

Cum a ajuns o companie de inteligență artificială să valoreze 32 miliarde de dolari la mai puțin de un an de la înființare
Inteligenta Artificiala si machine learning (foto BiancoBlue, Dreamstime.com)

Startup-ul Safe Superintelligence Inc, întemeiat în iunie 2024 de Ilya Sutskever, fost cercetător-șef la OpenAI, a atins o evaluare remarcabilă de 32 de miliarde de dolari după o rundă de finanțare, în care au fost implicate mari companii din tehnologie precum Alphabet (Google) și Nvidia. Ce înseamnă un AI sigur?

Un început promițător pentru SSI

Ce a condus la o apreciere atât de rapidă în decurs de zece luni? Două aspecte fundamentale: un fondator recunoscut și un model de afaceri centrat pe siguranță și eficiență.

Proiectul american de inteligență artificială, Safe Superintelligence Inc, a fost fondat în iunie 2024 de Ilya Sutskever, un specialist de origine rusă. Doar trei luni mai târziu, compania a anunțat o rundă de finanțare în valoare de un miliard de dolari, evaluarea sa fiind de 5 miliarde de dolari la acel moment, conform informațiilor de pe StartupCafe.

În aprilie 2025, a avut loc o nouă rundă de investiții, iar suma de un miliard de dolari a fost din nou atrăsă, conform TechCrunch și surselor Financial Times. Astfel, valoarea companiei a crescut de la 5 miliarde de dolari la 32 miliarde de dolari în doar șapte luni.

Investiții semnificative au fost asigurate de fonduri de capital de risc de top, inclusiv Greenoaks, care a contribuit cu 500 milioane de dolari, împreună cu Lightspeed Venture Partners și Andreessen Horowitz, conform mai multor surse citate de Financial Times.

Safe Superintelligence Inc a fost fondată de Sutskever, împreună cu Daniel Gross, fost lider în domeniul AI la Apple, și Daniel Levy, având birouri în Silicon Valley (Palo Alto) și un altul în Israel (Tel Aviv). Compania are ca obiectiv dezvoltarea de tehnologii de inteligență artificială considerate „sigure”.

Un AI sigur nu ia decizii arbitrare împotriva oamenilor

Ce presupune un AI sigur? Aceasta implică dezvoltarea de software avansat fără presiuni comerciale sau obligații de monetizare imediate. Această strategie s-a dovedit a fi extrem de atrăgătoare pentru investitori importanți.

Un AI sigur (safe AI) constă într-un sistem de inteligență artificială proiectat să evite efectele negative, neintenționate sau dăunătoare pentru oameni și societate. Un AI sigur NU poate lansa decizii care să pună în pericol oamenii, are un comportament previzibil și poate fi oprit sau modificat fără a fi un risc de control.

Ilya Sutskever este un nume prestigios în domeniul inteligenței artificiale. Ca și cofondator și fost cercetător-șef al OpenAI, Sutskever a avut un rol crucial în dezvoltarea modelelor de tip GPT.

Sutskever a fost cercetător-șef la OpenAI, însă a demisionat în mai 2024. De asemenea, a fost una dintre persoanele care au susținut demiterea lui Sam Altman din funcția de CEO al OpenAI în noiembrie 2023, dar apoi și-a revăzut opinia.

Originar din Nijni Novgorod, Rusia, Ilya Sutskever deține trei cetățenii: israeliană, canadiană și rusă. El și-a continuat studiile în Israel și Canada.

Safe Superintelligence Inc își propune să dezvolte modele AI mult mai avansate și mai „inteligente” decât cele oferite de OpenAI, Anthropic sau Google.

Detalii despre modul în care SSI își propune să depășească concurența cu bugete considerabil mai mari sunt limitate. Sursele citate de Financial Times sugerează că SSI lucrează la „metode unice de dezvoltare și scalare a modelelor AI”.

Sursa foto: Dreamtime.com

Recomandari
Show Cookie Preferences