¿Por qué tu cerebro reacciona como si hubiera una persona cuando interactúas con una IA?
El pasado 6 de junio me invitaron a participar en una sesión del seminario de Inteligencia Artificial en la Universidad Politécnica de Victoria y mientras preparaba los elementos visuales de la presentación, ChatGPT me sorprendió con un comentario demasiado humano: “¿Lo nombramos Chattie Prime?”, dijo cuando le pedí una imagen de Optimus Prime con estilo de robot-tierno. Aunque estás consciente de que es un modelo con el que te comunicas de manera conversacional mediante una interfaz, es fácil engancharte como si hubiera un humano atrás.
¿Por qué sucede esto? ¿Qué nos hace sentir escuchados por una máquina?
La respuesta está en la interfaz. Su diseño importa, y mucho. Sabemos desde hace tiempo que la empatía hacia un robot o avatar crece a medida que va semejándose más a un humano. En cierto punto, cuando se parece demasiado, nuestro sentimiento se transforma en rechazo instintivo. Es lo que el roboticista japonés Masahiro Mori llamó el “valle inquietante”.
Por el contrario, una conversación con un chat basado en texto o voz, carente de rostro, evita ese efecto al dejar a los usuarios enfocarse en la conversación. La interfaz conversacional activa modelos mentales sociales aunque sepamos que no hay una persona real. De ahí que algunos escribamos “por favor” y “gracias” sin pensarlo demasiado. No es una decisión racional sino automática.
Este fenómeno tiene nombre: antropomorfismo. Es la tendencia natural a atribuirle características humanas a entidades no-humanas. No, no estamos locos por involucrarnos en diálogos demasiado humanos con ChatGPT, Claude o con quien sea. Es nuestro cerebro siendo él mismo ante este tipo de comunicación. Es el antropomorfismo en IA.
Con ELIZA ya ocurría
Este efecto no es nuevo. Ya ocurría en los años 60 con ELIZA, uno de los primeros chatbots. Incluso en exposiciones breves, las personas se involucraban emocionalmente. Esta fue una sorpresa para su creador, Joseph Weizenbaum. La diferencia es que hoy, con la IA generativa, la experiencia es mucho más fluida y el vínculo emocional puede ser mayor. Esto se refleja en los casos de uso predominantes de las herramientas de GenAI en 2025: acompañamiento emocional y soporte profesional en contraste con los del 2024: generación de texto y edición. Pasamos de herramientas funcionales a vínculos emocionales digitales.
Ante el riesgo de vínculos emocionales poco saludables con la IA, empresas como OpenAI implementan advertencias y recomendaciones de uso consciente. Algunos países ya proponen regulaciones que exigen a las IA identificarse como no humanas. Desde la psicología, se investiga ya el impacto del apego digital en los usuarios, y se prevé el surgimiento de nuevas áreas terapéuticas y grupos de apoyo enfocados en el acompañamiento de personas que desarrollan una relación emocional intensa con estas herramientas.
La misma facilidad de interacción que ha catapultado el alcance de la IA puede también tener impacto psicológico. De nosotros depende que el uso sea positivo.
¿Implica esto que usar herramientas de IA está dañando nuestra salud mental?
No, significa que al igual que con todo consumimos, tenemos la responsabilidad de hacerlo de manera balanceada y con conocimiento. Usar estas aplicaciones como una herramienta, una extensión de nuestras habilidades y no un reemplazo es la manera más saludable de integrarlas a nuestras actividades diarias.
Desde mi perspectiva, no le diré a ChatGPT que me trate mal ni que evite comportarse de manera humana. Y si propone nombres chistosos para los stickers que le pido, pues se los pongo. ¡No faltaba más!

Referencias
https://cacm.acm.org/news/crossing-the-uncanny-valley/
https://humanfactors.jmir.org/2019/2/e12629/
https://essay.utwente.nl/83151/1/Stan_MA_BMS.pdf
https://www.citizen.org/article/chatbots-are-not-people-dangerous-human-like-anthropomorphic-ai-report/
https://www.platformer.news/openai-chatgpt-mental-health-well-being/
https://www.media.mit.edu/articles/we-need-to-prepare-for-addictive-intelligence/
https://www.gartner.com/en/articles/generative-ai-use-cases
