Intentó desplazar al CEO de OpenAI y ahora lanza un competidor que hace hincapié en la seguridad.
En un miércoles de X, Ilya Sutskever presentó planes para una nueva empresa llamada Safe Superintelligence Inc. (SSI). En un comunicado en su página web, la empresa declaró:
"SSI es nuestra misión, nuestra identidad y estrategia productiva principal, ya que es lo que nos preocupa. Nuestro equipo, inversionistas y modelo de negocios están en sintonía para lograr SSI. Nuestro objetivo es aumentar rápidamente las capacidades mientras que la seguridad se mantenga en el primer plano. De este modo, podemos expandirnos sin preocupaciones."
Este anuncio llega en un momento en que se intensifican las preocupaciones en la comunidad técnica y más allá sobre si la IA avanza a un ritmo más rápido que la investigación de seguridad y ética, con poca regulación para guiar a las empresas sobre el uso responsable de la tecnología.
Conocido como una de las figuras tempranas de la revolución de la IA, Sutskever trabajó bajo el pionero de la IA Geoffrey Hinton durante sus años de estudiante y co-creó una empresa de IA que más tarde fue adquirida por Google. Después de un paso en el equipo de investigación de IA de Google, Sutskever ayudó a establecer la entidad detrás de ChatGPT.
Sin embargo, las cosas se volvieron turbulentas para Sutskever en OpenAI cuando estuvo involucrado en un intento de despedir al CEO Sam Altman el año pasado, lo que condujo a una dramática reestructuración de la dirección que incluyó el despido, el rehire y un rediseño del consejo.
Fuentes como el colaborador de CNN Kara Swisher anteriormente informaron que Sutskever se sentía que Altman estaba empujando la tecnología de IA demasiado agresivamente. Sin embargo, tras su despido, Sutskever expresó arrepentimiento por su participación y firmó una carta apoyando la renuncia total del consejo y el regreso de Altman.
En marzo, Sutskever anunció su salida de OpenAI – una de varias salidas alrededor de la misma fecha – para enfocarse en un proyecto de significado personal.
Los objetivos de Safe Superintelligence siguen desconocidos, ya que no se determina cómo planean monetizar un modelo de IA más seguro o la forma específica que tomará su tecnología en términos de productos. Además, está incierto qué significa su definición de "seguridad" en relación con tecnología de IA altamente inteligente.
En una entrevista con Bloomberg, Sutskever dijo: "Por seguro, nos referimos a seguro como seguridad nuclear en lugar de seguro como 'seguridad y servicios'."
Los empleados que se despidieron de OpenAI expusieron preocupaciones sobre la prioridad de la empresa por el crecimiento comercial a largo plazo sobre las inversiones en seguridad. Uno de estos empleados despedidos, Jan Leike, expresó preocupaciones en marzo sobre la decisión de OpenAI de desbandar su equipo de "superalineación", que estaba dedicado a capacitar a los sistemas de IA para adecuarse a los valores y objetivos humanos. (OpenAI, sin embargo, afirmó que los miembros del equipo de superalineación se estaban distribuyendo por toda la empresa para mejorar la atención a los asuntos de seguridad.)
En su anuncio de lanzamiento, Safe Superintelligence muestra un deseo de trazar un curso distinto: "Nuestra concentración garantiza que no hay molestias de gestión ni ciclos de productos, y nuestro modelo de negocios asegura que la seguridad, la seguridad y el progreso están protegidos de las presiones comerciales a corto plazo."
Se unirán a Sutskever en esta nueva empresa Daniel Levy, quien trabajó en OpenAI durante los últimos dos años, y Daniel Gross, un inversionista que anteriormente trabajó como socio en el acelerador de startups Y Combinator y en proyectos de aprendizaje automático en Apple. Según la empresa, establecerán oficinas en Palo Alto, California, y Tel Aviv, Israel.