
La irrupción de la inteligencia artificial generativa marcó un antes y un después en muchos aspectos de la vida: mejorar la productividad de empresas, facilitar tareas repetitivas y, sorpresivamente, asesoría emocional. En este sentido, el uso de ChatGPT para resolver dudas amorosas y detectar engaños en relaciones sentimentales se ha vuelto una tendencia viral en plataformas como TikTok. Según reportes recientes, usuarios están utilizando el popular chatbot de OpenAI para interpretar conversaciones, leer posos de café y hasta tomar decisiones sobre rupturas. Esta práctica ha ganado notoriedad por su carácter inusual y por los testimonios que relatan consecuencias directas en la vida personal de los involucrados.
Una mujer en Grecia, utilizó ChatGPT para practicar tasseomancia, arte tradicional busca interpretar el futuro a través de los residuos del café. De acuerdo con diversos medios locales, la mujer habría pedido al sistema de IA que analizara imágenes de una taza con restos de café, luego de haber sido bebida por su esposo. Como resultado, el chatbot indicó el hombre mantenía una relación con una persona más joven cuya inicial comenzaba con la letra "E". Posteriormente, la mujer inició un proceso de divorcio, Aunque los detalles no han sido verificados por fuentes oficiales, el caso ha sido ampliamente compartido en redes y foros digitales.
Otro tipo de consultas se basan en usuarios que comparten capturas de pantalla y transcripciones completas de sus chats privados por aplicaciones como Tinder o WhatsApp. El objetivo, señalan, es obtener una "lectura emocional" por parte de la inteligencia artificial, para determinar si la otra persona muestra signos de interés, desinterés o manipulación. Esta práctica ha crecido especialmente entre personas jóvenes, que buscan una respuesta sin el temor al juicio social. De acuerdo con publicaciones en redes, algunas de las razones para recurrir a ChatGPT incluyen la "imparcialidad" de la herramienta y su disponibilidad permanente.
Los usos no se limitan al plano afectivo, también se han registrado interacciones donde los usuarios piden al sistema que genere representaciones visuales de sí mismo. Un ejemplo citado por medios digitales describe cómo un usuario solicitó a ChatGPT que mostrara su versión "humana" mediante una imagen fotorrealista. En respuesta, el modelo generó una figura andrógina con piel translúcida y circuitos de luz, acompañada de una explicación: "No conozco tu físico en forma de ser humano, así que crea tu imagen para que te refleje lo máximo posible". La imagen buscaba representar una presencia sin género ni tiempo específico.
Dicha tendencia de atribuir al chatbot funciones como la adivinación, la asesoría emocional o representación simbólica de identidad refleja el grado de confianza que parte de la población deposita en herramientas automatizadas. Sin embargo, expertos han advertido que, pese a su sofisticación, los sistemas de inteligencia artificial no sustituyen el juicio humano ni garantizan precisión en contextos subjetivos.
El uso de ChatGPT con fines emocionales y simbólicos continúa generando debate. Por ahora, las redes siguen documentando una diversidad de usos que superan ampliamente los fines técnicos para los que originalmente fue diseñado. (Notipress)