• Ilya Sutskever, cofondator și fost cercetător șef al OpenAI, fondează o nouă companie.
  • Sutskever anunță noua companie, Safe Superintelligence (SSI), într-o postare pe X.
  • Principalul scop al SSI este siguranța AI.

Ilya Sutskever, fost cercetător șef al OpenAI, își face propria companie. Safe Superintelligence are ca principal scop siguranța AI. O spune și numele. O spune și Ilya, în postarea de pe X. Sutskever a părăsit OpenAI luna trecută, în urma unor divergențe legate de strategia companiei. E axată prea mult pe profit și prea puțin pe safety, spunea el, la plecare.

Acum, are o companie nouă, cu un „singur scop și un singur produs” – o superinteligență sigură.

Pe site-ul companiei, inactiv la momentul publicării acestei știri, erau menționați anterior fondatorii. Pe lângă Sutskever, fostul director Apple, Daniel Gross, și fostul inginer OpenAI, Daniel Levy, pornesc primul laborator de superinteligență sigură din lume.

Care e povestea lui Ilya Sutskever la OpenAI

„Abordăm siguranța și performanța în tandem. Vrem să dezvoltăm capacitățile cât de repede posibil, dar siguranța va rămâne mereu prioritară”. Sunt direcțiile prezentate pe site. În contrapunct cu ce făcea OpenAI.

Sutskever părăsea OpenAI luna trecută, la un deceniu după ce a fondat compania. Anterior, a fost membru al board-ului OpenAI. Din poziția respectivă a încercat, alături de alți membri ai consiliului , concedierea lui Sam Altman din funcția de CEO.

L-au adus înapoi la mai puțin de o săptămână distanță, după ce majoritatea angajaților OpenAI au amenințat să demisioneze în masă și să plece la Microsoft.

Sutskever și Jan Leike, care coordonau divizia de safety a OpenAI, au demisionat în aceeași zi.