Sutskever, un respetado investigador de inteligencia artificial que dejó el fabricante de ChatGPT el mes pasado, dijo en una publicación en las redes sociales que creó Safe Superintelligence Inc. con dos cofundadores. El único objetivo y enfoque de la empresa es desarrollar de forma segura una “superinteligencia”, una referencia a los sistemas de inteligencia artificial que son más inteligentes que los humanos.
La empresa prometió no dejarse distraer por gastos generales de gestión o ciclos de productos y, según su modelo de negocio, el trabajo en materia de seguridad estaría aislado de las presiones comerciales a corto plazo, dijeron Sutskever y sus cofundadores, Daniel Gross y Daniel Levy en una declaración preparada.
Los tres dijeron que Safe Superintelligence es una empresa estadounidense con raíces en Palo Alto, California y Tel Aviv, donde tenemos profundas raíces y la capacidad de reclutar talentos técnicos de primer nivel.
Sutskever fue parte de un grupo que hizo un intento fallido el año pasado de derrocar a Altman. La reorganización de la sala de juntas, que Sutskever luego dijo que lamentaba, también condujo a un período de agitación interna centrado en sí los líderes de OpenAI estaban priorizando las oportunidades comerciales sobre la seguridad de la IA.
En OpenAI, Sutskever dirigió conjuntamente un equipo centrado en desarrollar de forma segura una IA mejor que la humana, conocida como inteligencia artificial general o AGI. Cuando dejó OpenAI, dijo que tenía planes para un proyecto muy personalmente significativo, pero no ofreció detalles.
Días después de su partida, el colíder de su equipo, Jan Leike, también renunció y criticó a OpenAI por permitir que la seguridad pase a un segundo plano frente a los productos brillantes. OpenAI anunció más tarde la formación de un comité de seguridad, pero estaba compuesto principalmente por miembros de la empresa.