Se revelan las actividades actuales del especialista en IA Sutskever.
Ilya Sutskever, pionero en el campo de la IA y co-crédito para generar el alboroto por Alexnet en 2012, está lanzando una nueva empresa, Safe Superintelligence (SSI), para garantizar la seguridad de la tecnología de IA.
A los 37 años, Sutskever, recientemente cumplió años, fue uno de los mentes detrás de la fundación de OpenAI en 2015. Su salida de OpenAI a mediados de mayo generó especulaciones sobre sus planes futuros. Ahora, el genio de la IA ha desvelado algúnas informaciones acerca de su próximo proyecto: Sutskever, junto con su ex-colaborador de OpenAI Daniel Levy y el ex-gerente de Apple Daniel Gross, están estableciendo Safe Superintelligence (SSI). El objetivo principal: cultivando una IA superintelligentemente segura.
La preocupación perenne de seguridad de la IA ha molestado a Sutskever durante mucho tiempo. Se unió a OpenAI con el objetivo de impulsar la innovación en la IA mientras abordaba sus preocupaciones de seguridad. La controversia con Altman podría haber sido parte de esto – con Sutskever informadomente desilusionado por los intereses comerciales en crecimiento de OpenAI, transformándose en un behemoth de un billón de dólares. Sutskever no ha confirmado ni negado estas acusaciones públicamente, pero su contraparte de OpenAI y colaborador de startups Jan Leike recientemente compartió lo siguiente en X: El énfasis en la seguridad había tomado un segundo plano ante productos brillantes.
SSI busca rectificar esta situación. La empresa operará en una zona de contención, aislada de presiones externas, involucrada en el desarrollo de un producto complejo y competiendo en el mercado. "Esta empresa es única porque su primer producto será una IA superinteligente segura, y eso es todo", dijo Sutskever a Bloomberg.
SSI no puede escapar por completo de las presiones comerciales. Los modelos de lenguaje más recientes demandan cantidades enormes de datos y potencia computacional. La nueva empresa de Sutskever no está inmunizada a estas realidades económicas. Los identidades de los inversionistas de SSI siguen en el misterio.
Los detalles de lo que SSI busca lograr y desarrollar aún no están claros. Sin embargo, es claro que no tratará de abordar las deficiencias y riesgos de productos de IA existentes, como preocupaciones de privacidad, problemas de derechos de autor o falta de precisión como competencia principal para herramientas como ChatGPT.
Sutskever se enfrenta a preguntas mayores, como cómo aparecerán las IAs avanzadas en el futuro y cómo coexistirán con los humanos. En una entrevista con The Guardian hace unos meses, Sutskever expresó preocupación de que la IA efectivamente "solucionaría todos los problemas que tenemos hoy", incluyendo el desempleo, las enfermedades y la pobreza, pero también generaría desafíos nuevos: "La IA tiene el potencial de crear dictaduras eternas". Sutskever se refiere a una fase futura de la IA llamada Superinteligencia, según esta perspectiva, sería más poderosa que una IA General (AGI). No solo replicaría habilidades humanas, sino que también habilidades que superasen esas.
Una Superinteligencia debe poseer la calidad de no infligir daño significativo a la humanidad, según lo que Sutskever dijo a Bloomberg. "Queremos que opere según algunos valores esenciales". Bajo esto, imagina "tal vez los valores que han sido tan exitosos en los últimos pocos siglos y que underlie las democracias liberales, como la libertad y la democracia".
Precisamente cómo los fundadores planearán inculcar estos valores en sus modelos de IA sigue sin claridad. Solo hay la declaración de que habrá instalaciones de supercomputación colosales en el futuro, que desarrollarán tecnologías innovadoras autónomamente. "Eso es loco, no lo estoy diciendo de manera irónica? Es 'nuestra seguridad, a lo que queremos contribuir'".
Este texto originalmente apareció en capital.de