Bekavarhat az Open AI-nak a vállalat korábbi társalapítója
Az OpenAI volt vezető kutatója új vállalatot alapított, amely a mesterséges intelligencia biztonságos használatát tűzte ki célul.
Az elmúlt években tapasztalt gyors mesterséges intelligencia fejlődés új kihívások elé állítja az iparágat. Ilya Sutskever, az OpenAI korábbi vezető kutatója és társalapítója erre válaszul hozta létre új vállalkozását, a Safe Superintelligence-t. A cég elsődleges célja ugyanis olyan mesterséges intelligencia rendszerek fejlesztése, amelyek a technológiai fejlődés mellett kiemelt figyelmet fordítanak a biztonsági szempontokra is.
A Safe Superintelligence weboldalán közzétett nyilatkozat szerint a vállalat egyensúlyt kíván teremteni az MI képességeinek fejlesztése és a biztonsági kérdések kezelése között. Ez a megközelítés egyfajta válaszként is értelmezhető azokra a kritikákra, amelyek szerint a nagy technológiai cégek gyakran háttérbe szorítják a biztonsági megfontolásokat a kereskedelmi érdekek javára.
A startup alapítói között található Daniel Levy, az OpenAI korábbi kutatója, valamint az a Daniel Gross is, aki korábban az Apple MI-részlegét vezette.
Sutskever távozása az OpenAI-tól nem volt zökkenőmentes, tavaly ugyanis ő is részt vett a Sam Altman vezérigazgató eltávolítását célzó kísérletben, ami után végül ő maga került ki az igazgatótanácsból, majd májusban végleg távozott a cégtől.
Az általa most létrehozott Safe Superintelligence ambiciózus célt tűzött ki maga elé, mégpedig, hogy a világ első olyan laboratóriuma kíván lenni, amely kizárólagosan egyetlen célra összpontosít, ami nem más, mint egy biztonságos szuperintelligencia létrehozása.