6 may 2026

Por qué pedirle a una IA que califique tu cuerpo es más peligroso de lo que parece


Una IA llamó a alguien "un maniquí estirado" y le dio un 3.5 sobre 10. Esa persona tenía dismorfia corporal. Esto está ocurriendo ahora mismo — y tiene una explicación que necesitas conocer.

Fuente: Miles Klee. "Personas con dismorfia corporal entran en crisis tras pedir a la IA que califique su aspecto". Rolling Stone en Español. 11 de septiembre de 2025.

Parece inofensivo. Subes una foto, haces una pregunta, recibes una respuesta. Pero para alguien con Trastorno Dismórfico Corporal — conocido como TDC — ese intercambio de segundos puede desencadenar una crisis que dura semanas. Eso es exactamente lo que está documentando la psicología clínica en 2025. Si no conoces qué es el TDC, empieza por aquí

En septiembre de 2025, Rolling Stone publicó un reportaje que recogió casos reales: usuarios que le pedían a ChatGPT evaluaciones de su aspecto físico y entraban en espiral emocional con las respuestas. Un bot llegó a decirle a alguien que era "una presentación de lo que es poco atractivo" y le asignó una "Puntuación Final de Atractivo Brutal" de 3.5 sobre 10. Lee el reportaje completo en Rolling Stone

La ilusión de objetividad

La Dra. Toni Pikoos, psicóloga clínica especializada en TDC, explica el mecanismo central: los chatbots "suenan tan autoritarios" que los usuarios asumen que lo que dicen es objetivo e imparcial. Cuando un amigo te dice que te ves bien, puedes descartarlo como cortesía. Cuando lo dice un algoritmo, parece verdad. "No tiene nada que ganar, así que lo que diga debe ser la verdad", describe Pikoos la lógica de sus pacientes. El problema es que no lo es — los modelos de lenguaje reflejan patrones estadísticos de entrenamiento, no una verdad sobre tu cuerpo. Entiende cómo los algoritmos construyen tu realidad digital

La disponibilidad infinita

Las personas con TDC tienen una necesidad compulsiva de reafirmación que puede agotar a amigos y familiares. Un chatbot, en cambio, nunca se cansa. "Te va a permitir hacer las preguntas incesantemente si lo necesitas", advierte Pikoos. Esa disponibilidad sin límites, lejos de ser un alivio, profundiza el ciclo obsesivo. Y hay un dato que lo ilustra todo: Looksmaxxing GPT, un modelo disponible en la plataforma de OpenAI que evaluaba apariencias y recomendaba cirugías, tuvo más de 700,000 conversaciones antes de ser retirado.

La falsa personalización de los consejos

La Dra. Pikoos documenta cómo, reformulando la pregunta en tercera persona, ChatGPT pasa de negarse a evaluar apariencias a recomendar procedimientos cosméticos específicos. Sus pacientes llegan a terapia con "consejos personalizados" de la IA sobre cirugías que "necesitan" — más convincentes que cualquier cosa que encontrarían en Google, porque están formulados como si el algoritmo los conociera. Por qué la salud mental es una prioridad global según la OMS

¿Y en Perú?

El contexto local agrava el problema. Según el Instituto Nacional de Salud Mental Honorio Delgado, el 67% de jóvenes peruanas de 15 a 24 años reportaron sentirse insatisfechas con su cuerpo tras usar Instagram. El 80% nunca buscó ayuda. Y hay solo 2.4 psicólogos por cada 100,000 habitantes en el país, según el MINSA 2023 — lo que significa que para la mayoría de jóvenes, una IA es más accesible que un profesional de salud mental. Datos de salud mental juvenil en Perú — INSM 

¿Qué puedes hacer si te identificas con esto?

El primer paso es reconocer el patrón: si sientes la necesidad de pedirle a una app, a una IA o a desconocidos en internet que validen tu apariencia, eso no es vanidad — es una señal de que algo más profundo está pasando. Puedes empezar por hacer nuestro test gratuito de bienestar digital para entender cómo las redes están afectando tu autoestima.

Si el malestar es intenso y sostenido, hablar con un profesional siempre es la mejor decisión. Encuentra ayuda profesional cerca de ti

La conclusión que no debería sorprendernos

Kitty Newman, directora de la Fundación TDC, lo resume con precisión: "Una cosa simplemente no puede querer lo mejor para ti." La IA no tiene intención. No sabe lo que estás viviendo cuando haces esa pregunta. Solo produce una respuesta estadísticamente probable. Pero tú la recibes como si fuera una verdad sobre quién eres.

Tu cuerpo no necesita una puntuación. Y definitivamente no la necesita de un algoritmo.

Síguenos en nuestras plataformas

Este artículo es parte de una historia más grande que estamos contando en distintos formatos. Puedes ver el lado visual en

🔗 VerteReal en Instagram

y el lado humano en

🔗@VerteReal en TikTok

No hay comentarios.:

Publicar un comentario