Lo que hay que saber sobre la super IA Q
La advertencia de un desarrollo de la inteligencia artificial potencialmente peligroso para el ser humano desempeñó supuestamente un papel importante en la destitución de Sam Altman como director del proveedor de chatGPT OpenAI. ¿Qué hay detrás de la supuesta superinteligencia Q*?
Hasta hace unos días, la supuesta superinteligencia era casi una quimera. Mucha gente se asombraba de lo que ya es capaz la inteligencia artificial y de la velocidad a la que los desarrolladores de software lanzan nuevos y mejores programas. Sin embargo, ni siquiera muchos expertos podían imaginar que la IA fuera más inteligente que los humanos, al menos de momento. Según muchos expertos, aún harían falta años para desarrollar una superinteligencia. Pero ahora se especula con la posibilidad de que ya se haya logrado un avance importante.
El motivo es el nuevo proyecto del inventor de ChatGPT OpenAI llamado Q* ("Q-Star"). Se supone que el modelo es capaz de resolver de forma autónoma problemas matemáticos que antes desconocía - los expertos creen que esto sería un hito en la dirección de la "Inteligencia General Artificial", o AGI por sus siglas en inglés, o coloquialmente conocida como superinteligencia.
Según informan la agencia de noticias Reuters y la revista "The Information", Q* también habría desempeñado un papel en el despido del ahora restituido consejero delegado y cofundador de OpenAI, Sam Altman. Según las dos fuentes, una versión de prueba del modelo, que probablemente circulaba dentro de OpenAI, alarmó a los expertos en seguridad. Al parecer, una carta interna al personal advertía de que el desarrollo de Q* podría suponer una "amenaza para la humanidad".
"Nadie sabe exactamente qué es"
Pero, ¿qué puede hacer el programa que ha desatado tal oleada de miedo en el seno de la empresa de software? "Nadie sabe exactamente qué es", afirma Damian Borth, director académico del Programa de Doctorado en Informática de la Universidad de St. Gallen. "No hay ninguna entrada de blog ni ningún artículo que se haya publicado. Sólo hay conjeturas y eso es lo interesante". Como muchos otros en la comunidad, sospecha que la "Q" del nombre es una referencia al llamado aprendizaje Q. Se trata de un algoritmo del aprendizaje por refuerzo, un método de aprendizaje automático. En pocas palabras, los programas interactúan con su entorno, toman decisiones y reciben una recompensa por una acción positiva. Esto le anima (refuerzo) y realiza la acción más a menudo, y viceversa para las acciones negativas.
Sin embargo, otros miembros de la comunidad en línea de OpenAI sospechan que la informática cuántica está detrás del nombre en clave del proyecto. Los ordenadores cuánticos son extremadamente potentes y pueden resolver problemas complejos específicos con muchas variables más rápido que los ordenadores convencionales. Sin embargo, Borth cree que esto es poco probable. "OpenAI no ha hecho mucho en este campo, sino que se ha centrado claramente en las GPU, es decir, los procesadores gráficos", afirma. "En el aprendizaje por refuerzo, en cambio, OpenAI siempre ha sido muy fuerte. Junto con la IA generativa, que incluye ChatGPT, es uno de los pilares centrales".
Tras el asterisco de Q*, la comunidad sospecha del algoritmo "A*", capaz de determinar el camino más corto entre dos nodos o puntos. Para ello, no selecciona a ciegas el siguiente nodo disponible, sino que tiene en cuenta información adicional para acelerar la búsqueda.
Los usuarios expresan abiertamente su escepticismo
Aunque de momento no se dispone de casi ninguna información fiable sobre Q*, muchos en la comunidad ya están declarando que el nuevo modelo de IA es el "mayor avance de la civilización humana", una "revolución" y un sistema "revolucionario". Palabras mayores para el hecho de que, según Reuters y The Information, Q* sólo puede resolver problemas matemáticos de nivel de primaria.
Por eso, algunos usuarios se muestran abiertamente escépticos: "Como alguien que ha investigado mucho sobre IA, puedo decir que es muy fácil creer que se ha logrado un gran avance", escribe uno. Otro escribe que "la inteligencia humana o sobrehumana" necesita una "arquitectura diferente". "Q* es un movimiento en esa dirección, pero no está nada claro que sea "eso"", escribe un usuario en OpenAI.
De hecho, lo especial de Q* es, aparentemente, que puede resolver tareas matemáticas de forma independiente. "Por lo que sabemos hasta ahora, es la primera vez que la IA consigue alcanzar el tipo de rendimiento intelectual necesario para las matemáticas", afirma Borth. "Así que la máquina no se limita a repetir como un loro, como dicen los escépticos de ChatGPT, sino que se supone que Q* tiene la capacidad de sacar conclusiones lógicas". Sin embargo, todavía no se puede decir si esto es también un paso decisivo hacia la AGI.
"Por un lado, la definición de AGI no está del todo clara. ¿Se trata de una máquina que es consciente de sí misma, que trabaja contra los humanos o que simplemente generaliza entre varias tareas?", dice Borth. "Por otro lado, no creo que la AGI sea necesaria para ser peligrosa para los humanos. Dependiendo de cómo manejemos nuestros sistemas actuales, eso ya podría ocurrir".
Altman es considerado el rostro del boom de la IA
El malestar también se debe a que la propia compañía habría advertido de ello. Expertos en seguridad se habrían mostrado especialmente alarmados por el ritmo de desarrollo, informa The Information.
Altman, considerado el rostro del auge de la IA y de quien se dice que desde el principio tuvo como objetivo enseñar a los ordenadores a aprender de forma autónoma, comentó los riesgos potenciales de la IA en una audiencia en el Senado de EE.UU. este año: "Mis peores temores son que estamos haciendo un daño significativo a la tecnología y a la industria. [...] Creo que si esta tecnología sale mal, puede salir muy mal. Y queremos ser claros al respecto", dijo Altman, que ahora vuelve a ser consejero delegado de OpenAI tras un tira y afloja sin precedentes.
El consejo había destituido inicialmente a Altman hace casi quince días sin dar explicaciones y nombró dos veces a un CEO interino. El miércoles pasado, sin embargo, la presión del gran inversor Microsoft fue demasiado fuerte y Altman volvió a su puesto. Al mismo tiempo, se nombró un nuevo consejo de administración, en el que figura el ex Secretario del Tesoro estadounidense Larry Summers. Según Sarah Kreps, directora del Tech Policy Institute de Washington, el nuevo consejo apoya la visión de Altman de acelerar el desarrollo de la IA y, al mismo tiempo, tomar precauciones de seguridad.
Este artículo apareció por primera vez en Capital.de.
Fuente: www.ntv.de