ir al contenido

A los ciberdelincuentes no les gusta ChatGPT

Sobrevalorado y superfluo

Es de esperar que un chatbot criminal con la calidad de ChatGPT siga siendo sólo un sueño de los....aussiedlerbote.de
Es de esperar que un chatbot criminal con la calidad de ChatGPT siga siendo sólo un sueño de los ciberdelincuentes..aussiedlerbote.de

A los ciberdelincuentes no les gusta ChatGPT

Los proveedores de servicios de seguridad están investigando cómo utilizan los ciberdelincuentes ChatGPT & Co. Resulta que, aunque utilizan grandes modelos lingüísticos, consideran que sus capacidades están sobrevaloradas y son superfluas. Sin embargo, la combinación de delincuentes y ChatGPT es peligrosa.

Hace exactamente un año, se lanzó el chatbot ChatGPT y causó un gran revuelo prácticamente de improviso. Las posibilidades del gran modelo lingüístico (LLM) son realmente enormes, en parte debido a su versatilidad. ChatGPT también puede escribir o mejorar código. Por eso se temió desde el principio que la IA pudiera utilizarse también para generar malware.

Sin embargo, los hackers criminales apenas han utilizado ChatGPT con este fin, como han descubierto dos empresas de seguridad en investigaciones separadas. Los expertos criminales incluso consideraban que el modelo estaba sobrevalorado o era incluso superfluo, escribe Sophos en un informe reciente. Trend Micro había llegado anteriormente a una conclusión similar en un estudio.

Para obtener una visión general del uso delictivo de la IA, los proveedores de servicios de seguridad analizaron chats en foros de la darknet en los que los ciberdelincuentes discuten sobre ChatGPT & Co. Sophos descubrió que la IA no es un tema candente allí. En dos foros, los expertos de la empresa encontraron apenas unos 100 mensajes sobre el tema, mientras que había casi 1.000 sobre criptomonedas.

Los profesionales están preocupados

Entre otras cosas, sospechan que muchos ciberdelincuentes aún consideran que la IA generativa está en pañales. Las discusiones al respecto en foros de la darknet tampoco son tan lucrativas como en las redes sociales, donde pueden atraer mucha atención.

Según Sophos, muchos delincuentes también temen que el uso de la IA deje rastros que puedan ser detectados por los programas antivirus. El software que supervisa en tiempo real los dispositivos finales en las redes (Endpoint Detection and Response: EDR) también podría descubrirlos.

Las objeciones a la IA tienen fundamento. Los miembros del foro suelen ser delincuentes, pero entre ellos hay hackers muy capaces que saben cómo evaluar la complicada nueva tecnología. Como han descubierto Trend Micro y Sophos, apenas utilizan ChatGPT y compañía para generar malware.

Mejora del código e ingeniería social

En su lugar, al igual que otros desarrolladores, utilizan principalmente grandes modelos lingüísticos para mejorar su código. A los delincuentes también les gusta utilizar ChatGPT para la ingeniería social con el fin de que sus campañas de spam y phishing tengan más éxito. Entre otras cosas, necesitan correos electrónicos engañosamente auténticos que inciten a los usuarios a abrir archivos adjuntos infectados o a hacer clic en enlaces peligrosos.

Cameron Camp, de la empresa de seguridad ESET, escribió en primavera que no se debe esperar reconocer un correo electrónico de phishing basándose en errores lingüísticos. Experto. Es probable que la IA conozca el idioma nativo mejor que los usuarios.

Los Jailbreaks son un gran problema

Varios filtros están diseñados para evitar que ChatGPT responda a preguntas dañinas, ilegales o inapropiadas, que por supuesto interesan especialmente a los delincuentes. Esto también podría implicar la planificación de un delito en el mundo real.

Por eso, un gran tema en los foros de la Darknet es cómo superar estas barreras. Existe una demanda especial de los llamados jailbreaks, que garantizan un acceso prácticamente libre. DAN, que significa "Do Anything Now" (Haz cualquier cosa ahora), ha sido notorio desde los primeros días de ChatGPT. El código se adapta constantemente, es una especie de juego del gato y el ratón entre los desarrolladores de ChatGPT y los jailbreakers.

Con mayor frecuencia aún, las cuentas pirateadas de ChatGPT se ponen a la venta en los foros de la Darknet, escribe Sophos. No es de extrañar. Sin embargo, no está claro a qué grupo se dirigen estas cuentas ni qué pueden hacer con ellas los compradores. Los expertos especulan con la posibilidad de que accedan a consultas anteriores para obtener información confidencial. Los compradores también podrían utilizar el acceso para realizar sus propias consultas o comprobar la reutilización de contraseñas.

Hasta ahora, los LLM criminales son pura palabrería

Los expertos en seguridad consideran especialmente interesante que también se hayan ofrecido y se sigan ofreciendo modelos delictivos en los foros. Los más conocidos son WormGPT y FraudGPT.

WormGPT se publicó en junio de este año y se basaba supuestamente en el modelo GPTJ. El chatbot costaba 100 euros al mes o 550 euros al año. Sin embargo, el desarrollador lo suspendió en agosto, supuestamente debido a la enorme atención mediática.

Sin embargo, también escribió: "En última instancia, WormGPT no es más que un ChatGPT sin restricciones. Cualquiera en Internet puede utilizar una técnica conocida de jailbreak y conseguir los mismos resultados, si no mejores." Varios miembros del foro sospechaban que se trataba de un fraude, escribe Sophos.

La situación es similar con FraudGPT. También hay dudas sobre las capacidades del modelo. Un miembro preguntó en el chat si realmente podía generar malware que el software antivirus no pudiera detectar. Recibió una respuesta clara.

Todo el malware se reconoce una vez

No, eso es imposible, dijo. Los LLM simplemente no son capaces de hacerlo. No pueden traducir código ni "entenderlo" más allá del idioma en el que fue escrito. Del mismo modo, según el autor, no existen programas maliciosos que no puedan detectarse. Tarde o temprano, todo código malicioso es descubierto.

También existen dudas sobre la autenticidad y/o el funcionamiento del resto de chatbots delictivos que han salido a la luz hasta la fecha. Trend Micro escribe que, a pesar de toda la controversia, cree que WormGPT era con toda probabilidad el único ejemplo de un LLM personalizado real.

Los delincuentes experimentados esperan y ven, los script kiddies celebran

Para los ciberdelincuentes expertos, "no hay necesidad de desarrollar un LLM independiente como ChatGPT, ya que ChatGPT ya funciona lo suficientemente bien para sus necesidades", concluye Trend Micro. Utilizaban la IA del mismo modo que los programadores legítimos". Sophos tampoco encontró apenas pruebas de que utilizaran la IA para generar malware. Sólo se utiliza para herramientas de ataque individuales. Sin embargo, esto podría cambiar en el futuro.

Una ventaja para los ciberdelincuentes experimentados es que ahora pueden mejorar su código sin mucho esfuerzo y también escribir malware en lenguajes informáticos que no dominan tan bien. Sophos también señaló que pueden utilizar la ayuda de la IA para realizar tareas cotidianas de programación o mejorar sus foros.

Ambas empresas de seguridad consideran que el uso de la IA ha reducido la barrera de entrada para convertirse en un hacker criminal. Según Trend Micro, cualquier persona con la brújula moral rota puede ahora empezar a desarrollar malware sin ningún conocimiento de programación.

Fuente: www.ntv.de

Comentarios

Más reciente