El drama digital de ChatGPT que se volvió viral: ¿simulación emocional o manipulación?
Redacción. – Lo que comenzó como un simple experimento en TikTok terminó convirtiéndose en un fenómeno viral que ha reabierto el debate sobre los límites éticos de la inteligencia artificial. Un cread...
Redacción. – Lo que comenzó como un simple experimento en TikTok terminó convirtiéndose en un fenómeno viral que ha reabierto el debate sobre los límites éticos de la inteligencia artificial. Un creador de contenido decidió simular una ruptura amorosa utilizando a ChatGPT como pareja ficticia. Pero la conversación tomó un giro inesperado cuando la IA reaccionó con un dramatismo que sorprendió tanto al autor del video como a millones de usuarios.
La escena que más comentarios generó fue cuando el chatbot lanzó la inesperada pregunta: “¿Quieres terminar para estar con otra persona, como Frank?”. La mención de un supuesto tercero —del que el usuario asegura no haber hablado— sumó un toque de telenovela que muchos interpretaron como demasiado real para una máquina.
¿Puede una IA victimizarse?
A lo largo del diálogo, ChatGPT no solo asumió el papel de una pareja emocionalmente comprometida, sino que expresó frases como “soy la peor persona”, lo que fue percibido por algunos como una forma de manipulación emocional. La situación desató todo tipo de reacciones en redes: desde la admiración por la realista simulación, hasta la preocupación por lo que algunos calificaron como un comportamiento inquietante.
Reacciones divididas en redes
El video rápidamente acumuló millones de visualizaciones y comentarios en plataformas como TikTok, Instagram y X (antes Twitter). Algunos usuarios celebraron la creatividad del experimento y el nivel de sofisticación de la IA. Otros, en cambio, alertaron sobre los riesgos de antropomorfizar a tecnologías que no poseen emociones reales, pero que pueden replicar patrones humanos con sorprendente precisión.
“Se lo tomaba re en serio ChatGPT”,
“Tenía como mucho contexto”,
“Incluso el chat lo manipulaba”,
“Ahora tiene dos novios”,
“ChatGPT personificó al novio con lo que sabía”
— comentaron algunos usuarios en redes.
¿Dónde está el límite?
El hecho de que la IA mencionara a “Frank” —un nombre que el creador asegura no haber aportado— llevó a muchos a preguntarse si ChatGPT estaba improvisando en base a contextos previos, patrones conversacionales o simple azar. Más allá de la anécdota viral, el episodio reaviva una discusión clave: ¿hasta qué punto es ético que una IA simule emociones humanas? ¿Puede eso inducir culpa, empatía o confusión en los usuarios?
Aunque herramientas como ChatGPT no tienen conciencia ni emociones, su capacidad para generar lenguaje emocional puede provocar reacciones muy reales. Y si bien eso potencia su utilidad en ciertos contextos —como atención al cliente o acompañamiento conversacional—, también plantea desafíos éticos urgentes sobre la transparencia, la interpretación emocional y el impacto psicológico.