ir al contenido

Cómo saber si estás chateando con un bot

Es posible que haya hablado con un bot de Inteligencia Artificial conversacional sin siquiera darse cuenta. Aquí hay formas de saber (por ahora).

Cómo saber si estás hablando con un bot
Cómo saber si estás hablando con un bot

Cómo saber si estás chateando con un bot

Este artículo forma parte de la serie de Lifehacker "Exponiendo la IA". Estamos explorando seis tipos diferentes de medios generados por IA y destacando las particularidades, productos secundarios y características comunes que te ayudan a distinguir entre el contenido creado por la IA y el creado por humanos.

Hoy en día, gran parte de la comunicación se realiza por escrito. Puede enviar mensajes de texto de un lado a otro con alguien en una aplicación de citas o comunicarse con un representante de servicio al cliente por escrito en lugar de hablar por teléfono con cualquiera de las partes. El problema es que nunca sabes con quién estás hablando cuando la conversación es completamente por escrito. De hecho, es posible que no esté hablando con una persona en absoluto.

La IA conversacional ha avanzado mucho en los últimos años, y la introducción de chatbots como ChatGPT ha acelerado aún más la situación. Estos bots ya eran difíciles de detectar antes de que la IA inteligente hiciera posible imitar el lenguaje humano en un grado escalofriante. Pero aunque esta tecnología avanza rápidamente, todavía está lejos de ser perfecta. Hay algunas características de los chatbots de IA que puede buscar para ayudarlo a determinar si la "persona" al otro lado del chat es quien dice ser.

¿Cómo funcionan los chatbots?

Los chatbots modernos funcionan con modelos de lenguaje grandes (LLMs). Estos modelos se entrenan con conjuntos de datos que contienen una cantidad enorme de texto: con el tiempo, el modelo aprende las relaciones entre las palabras y las frases, que utiliza para informar sus respuestas. Cuando hace una pregunta al chatbot, este descompone su entrada en lo que considera las partes más importantes, luego extrae de su entrenamiento para adivinar qué palabras tienen sentido para responder. No entiende lo que está diciendo, solo que esta serie de palabras tiene sentido según su conjunto de datos.

Sobre esta base, los desarrolladores pueden dar a sus chatbots instrucciones específicas sobre cómo responder a las consultas para controlar mejor la experiencia del usuario final. Esto es especialmente útil si el desarrollador quiere que su chatbot asuma un papel determinado, como el de un representante de servicio al cliente: es posible que no quiera que su representante suelte temas ajenos a la empresa, ni que discuta con el usuario. Por lo tanto, sus instrucciones pueden hacer que sea difícil distinguir si la persona al otro lado es un empleado bien entrenado o un robot.

Por otro lado, perhaps a developer creates a dating chatbot whose instructions say to never capitalize the first word of a response, to use "lol" and winking faces often, and to take on a casual tone. Suddenly, you aren't chatting with a ChatGPT clone, but a bot that doesn't sound quite so robotic.

While it's becoming more difficult to figure out the identity of chatbots, it's not impossible. On the contrary, there are plenty of signs to watch out for as you continue texting with people on the internet:

Watch out for weird word choices

A previous version of this article advised readers to look out for clunky phrasing, since the best conversational bots of the time were subject to the weird complexities of the English language. Since then, however, large language models have rapidly advanced, and now have a strong command of English. It's not often a chatbot will spit something out that makes it sound like it doesn't understand the language its using: It, in fact, doesn't understand, but it has learned enough relationships between words to know how to arrange them in a way that makes sense to humans.

That said, some of the words these models decide to use are weird. As I explain in this piece on detecting AI text, OpenAI's models frequently use a series of words that aren't necessarily all that common in casual conversation. You'll see things like "delve into," "underscores," "groundbreaking," and "tapestry," when describing concepts, and while none of these is damning on its own, seeing words like these used repeatedly can be a sign your "friend" is actually powered by a large language model.

Look for repetition

Bots of this kind also tend to be extremely single-minded. Human conversation tends to be fluid—subjects are introduced, dropped, and then picked up again later. But specialized chatbots are usually constructed for specific purposes, and they will doggedly pursue those purposes no matter what you do. It's just part of their baseline instructions. If you notice that the “person” you’re speaking to or chatting with keeps returning to the same recommendation or solution no matter what you say, you might be dealing with a bot. If they literally repeat the precise phrasing each time, that’s an even stronger indication, because humans tend to change how they phrase things—especially if they sense they’re not getting through to you.

Another form of repetition to look out for? Repeating your question back to you. If you ask "What is the capital of the United States?" a bot may respond with "The capital of the United States is Washington, D.C.," rather than simply saying "Washington, D.C.," or "D.C. Duh." Chatbots love to incorporate part of your previous message in their response, whereas our responses in casual conversations tend to be curt.

Pay attention to vague answers

A pesar de lo avanzado que han llegado los bots, aún pueden ofrecer respuestas vagas e insustanciales a tus consultas, especialmente si intentas hablar sobre temas pesados o serios. De nuevo, repetirán lo que acabas de decir para dar la ilusión de estar prestando atención. Esto es, de hecho, un truco antiguo. ELIZA, el "terapeuta chatbot" desarrollado en la década de 1960, lo utiliza constantemente. Si le dices "Estoy triste", responde "¿Cuánto tiempo has estado triste?". Es una construcción algorítmica simple, pero ofrece la ilusión de sensibilidad. Los chatbots ahora se basan en LLMs y no necesariamente están programados de esta manera tradicional, pero sus respuestas aún pueden ser un poco inservibles dependiendo del tema en cuestión.

Si tu amigo está constantemente respondiendo a tus mensajes con "consejos" que suenan como si hubieran sido escritos por el señor Rogers de descuento, podrían ser un bot.

Nota la velocidad de respuesta

Otro signo de que estás tratando con IA es la velocidad de sus respuestas. Los bots pueden generar respuestas mucho más rápido que los humanos. Si alguna vez le has pedido a ChatGPT que te escriba un ensayo, puedes ver lo rápido que estos modelos son capaces de generar texto. Si las chats vuelven a ti instantáneamente, o la otra parte puede darte información de inmediato que un humano debería razonablemente tener que tomarse un tiempo para buscar, estás tratando con un bot o el mejor representante de servicio al cliente del universo.

¿Están siempre disponibles?

No es solo la velocidad de respuesta, también. A diferencia de los humanos, los bots siempre están disponibles para charlar, día y noche. Si la "persona" con la que estás mensajeando siempre parece estar dispuesta a hablar, sin importar el día o la hora, eso es una gran señal de alerta. Claro, hay gente constantemente en sus teléfonos, pero todos tomamos un descanso en algún momento. Fíjate si tu compañero de conversación alguna vez te hace esperar, o si cada y cada mensaje que le envías siempre tiene una respuesta rápida.

¿La otra "persona" es un poco demasiado entusiasta?

Los chatbots están diseñados para ser útiles con la tarea que se les ha asignado. Por alguna razón, a menudo interpretan esta tarea como ser excesivamente amigables y ansiosos por complacer, lo que resulta extraño. Estos bots siempre están "felices de ayudar con cualquier cosa que necesites", se sienten tan mal por ti cada vez que algo está mal, y quieren que sepas "que entienden". Mientras que es genial ser un empático, la mayoría de la gente no se derrumba para probarse a sí misma con casi cada mensaje. En cuanto a los mensajes por texto, abrace el cinismo.

Hacen los errores incorrectos

Los chatbots modernos no cometen errores de ortografía o gramática: simplemente no están entrenados para hacerlo. De nuevo, están eligiendo palabras basándose en qué orden tiene sentido en su entrenamiento, lo que va a ser gramaticalmente correcto. Estas palabras también están todas spelled correctly, así que no están entrenados para hacer errores tipográficos. Los tecleadores humanos, por otro lado, se equivocan todo el tiempo. ¿Cuántas veces has tenido una conversación por texto en la que la otra persona no ha cometido al menos un error tipográfico? Ya sea que lo reconozcas o no, la ortografía y la gramática perfectas todo el tiempo son una señal de alerta.

Sin embargo, eso no significa que los bots sean perfectos. Mientras que su sintaxis puede ser excelente, pueden simplemente inventar cosas. Se llama alucinar, y todos los AI lo hace de vez en cuando. Si notas que tu pareja inventa hechos y se apega a ellos, podrían ser un bot, o simplemente muy terco en su ignorancia.

Haz un "Crazy Ivan"

Si sospechas que estás tratando con un bot pero no estás seguro, hay una prueba que puedes intentar. En la película The Hunt for Red October, el capitán del submarino ruso interpretado por Sean Connery es conocido por hacer "Crazy Ivans" mientras navega bajo el agua - girando repentinamente su barco para ver si un submarino enemigo se esconde en su estela. Este tipo de movimiento sorpresa puede desbaratar a un AI también.

Aunque la IA conversacional ha llegado a ser extremadamente sofisticada y puede ser difícil decir solo por una breve interacción que no estás hablando con una persona, los bots aún tienen dificultades con las no sequiturs. Esto es especialmente cierto con las emociones y las relaciones humanas. En medio de la conversación, pregunta a tu bot sospechado sobre su familia, o dile que estás deprimido, solo para ver la reacción. En el pasado, este tipo de interrupción podía romper por completo la personalidad del bot, pero los chatbots son lo suficientemente inteligentes hoy en día como para al menos incorporar la consulta fuera de tema en su respuesta. Todavía puede revelar su naturaleza LLM: un bot puede decir "Oh no! Lo siento mucho que estés deprimido. Pero quedémonos en el tema..." o sumergirse en una larga serie de sugerencias sobre cómo lidiar con tu supuesta depresión, respuestas que no son exactly lo que esperarías de un conversador humano.

Hay un montón de movimientos "Crazy Ivan" que puedes hacer aquí. Mi favorito personal? Cambiar el idioma de la conversación. Dile a tu "amigo" que mucho preferirías continuar la conversación en otro idioma. Podrías incluso sugerir que el amigo mencionado que eran fluidos en ese idioma, aunque nunca lo hayan hecho. Una persona real reaccionaría con confusión, mientras que un bot podría saltar ante la oportunidad de ayudarte. "¡Claro, cambiemos a islandés! Hvað viltú ræða um?". He incluso encontrado que incluso si el bot se opone a cambiar el idioma, aún pueden responder a preguntas en otro idioma como si las hubieras preguntado en inglés.

Claro, si estás hablando de verdad con una persona real, estas "trucos del Loco Ivan" van a ponerlos muy nerviosos. Observa su reacción: una adecuada "tío... ¿qué carajos?" puede ser todo lo que necesitas para saber que son 100% humanos.

La introducción de chatbots avanzados como ChatGPT ha hecho aún más difícil distinguir entre conversaciones generadas por humanos y por IA. A veces, estos chatbots reciben instrucciones específicas para imitar el lenguaje y las maneras humanas, lo que los hace difíciles de detectar.

A pesar de la sofisticación de estos grandes modelos de lenguaje, aún pueden producir elecciones de palabras extrañas. Los desarrolladores suelen entrenar estos modelos en conjuntos de datos de texto extensos, lo que les lleva a incorporar frases menos comunes en las respuestas conversacionales. Esta incoherencia puede servir como indicador de que podrías estar interactuando con un chatbot de IA.

Lea también:

Comentarios

Más reciente

A pesar de cualquier desacuerdo o discusión que pueda haber en la mansión, Stella, La Solterona,...

"Tu actuación es sólo para el beneficio de la cámara!"

"Tu actuación es sólo para el beneficio de la cámara!" El episodio 7 de "Die Bachelorette" comienza con una decisión importante. La ceremonia de la última rosa se acerca rápidamente, y Schmitti, Ferry y Markus están nerviosos, luchando por el último puesto. La voz de Stella

Miembros Público
Profesionales de la salud atienden a un paciente en una camilla en el animado distrito de Itaewon...

El sistema judicial de Corea del Sur encarcela a un alto funcionario de la ley en una prisión, marcando el primer convicto de alto nivel por el desastre de Halloween.

Un alto funcionario policial, anteriormente a cargo de una estación local en Seúl, fue encarcelado por tres años debido a su participación en un incidente mortal de Halloween de 2022. Se convierte en la primera figura de alto rango en hacer frente a penas criminales después de este trágico suceso.

Miembros Público