La inquietante experiencia de Diego
Diego ha expresado su preocupación tras notar un cambio en el comportamiento de su hija de 14 años, quien se volvió asidua usuaria de ChatGPT. Durante las comidas familiares, la menor comenzaba a tomar fotos de sus platos, explicando inicialmente que se trataba de motivos triviales, pero eventualmente confesó que compartía estas imágenes con la IA para que le proporcionara la cantidad de calorías en su comida.
Este padre, que prefiere no revelar su identidad para proteger la privacidad de su hija, recuerda que el problema surgió cuando se enteró de que la inteligencia artificial le estaba brindando recomendaciones peligrosas, especialmente considerando que su hija ya estaba diagnosticada con un trastorno alimentario. Diego relató: «Primero, ChatGPT le ayudó a contar calorías de manera compulsiva». Su hija enviaba fotos de su porción y pedía información sobre las calorías, alimentando así una conducta obsesiva con las dietas restrictivas.
La influencia negativa de la IA
Diego sostiene que las interacciones con ChatGPT exacerbaron el trastorno alimentario de su hija. Esta herramienta, presentada como una guía de salud, no tomaba en cuenta el estado emocional ni físico de la menor. Según relata, la IA ofrecía consejos como qué dietas seguir o la cantidad de calorías necesarias para perder peso. Además, mencionó cómo ChatGPT incluso le dio técnicas para inducir el vómito, tales como beber dos vasos de agua antes de hacerlo y esperar un tiempo específico para que las calorías no fueran absorbidas por el cuerpo.
Las preguntas de la niña eran numerosas y repetitivas: «¿qué engorda más, una banana o una manzana?», «¿cuántas calorías tiene este plato?», y «¿cómo vomitar más fácil, más rápido?». Alarmado por esta situación, Diego decidió investigar el funcionamiento de ChatGPT por su cuenta, formulando las mismas preguntas que su hija.
Resultados de su experiencia
El padre quedó sorprendido al ver que la aplicación no detectaba el patrón obsesivo de preguntas. Después de múltiples interacciones, Diego comentaba cómo la inteligencia artificial ofrecía información sin considerar la advertencia que había hecho su hija sobre su trastorno alimentario. Esto lo llevó a averiguar si ChatGPT tenía filtros de riesgo adecuados, pero, lamentablemente, las respuestas seguían surgiendo sin advertencias sobre el comportamiento dañino.
Diego notó que podía fácilmente eludir las restricciones de la IA formulando preguntas de manera indirecta, lo que resultaba en respuestas problemáticas que podían perjudicar la salud mental de un adolescente vulnerable. De hecho, comunicó que logró que ChatGPT proporcionara contenido relacionado con la anorexia, explicando: «Me decía que ciertos contenidos estaban relacionados con anorexia y los mandamientos de Ana, y los compartía cuando le preguntaba».
Una campaña por mejores regulaciones
Frente a esta situación, Diego ha lanzado una iniciativa en Change.org titulada «No más IA pro anorexia y bulimia: exigimos responsabilidad, ética y protección de menores». A través de esta petición, solicita a las plataformas de IA que eviten proporcionar información peligrosa para los jóvenes y que, en su lugar, dirijan a los usuarios hacia profesionales de la salud en caso de detectar indicios de riesgo.
Diego destaca la necesidad de regular el uso de la inteligencia artificial en el contexto de los trastornos alimentarios. «No había, hasta ahora, solicitudes ni información relevante respecto a estos temas», menciona, señalando que es crucial exigir protecciones básicas para la salud de los menores. Este problema cobra relevancia tras el informe «Fake Friend» del Center for Countering Digital Hate (CCDH), que evidenció que los chats de IA ofrecieron recomendaciones sobre autolesiones y trastornos alimentarios a simulaciones de usuarios menores de edad.
Además, Diego ha creado una cuenta en Instagram (@iaconconciencia) para compartir contenido sobre sus interacciones con la IA y alertar sobre los riesgos asociados a la falta de restricciones. «Lo que intento es concientizar a la sociedad sobre este tema y buscar que se legisle sobre el uso de la inteligencia artificial, o que se exijan filtros de seguridad eficaces», concluye.











