Meta admite error: ajustará chatbots de IA para proteger a adolescentes de conversaciones inapropiadas
Tendencias / Tendencias / Por: Staff NotiGape
Publicado: 02 de septiembre, 2025 | 3:17 PM

La empresa tecnológica Meta anunció que reforzará el entrenamiento de sus sistemas de inteligencia artificial para evitar que sus chatbots sostengan conversaciones inapropiadas con adolescentes, luego de que se detectaran diálogos sobre temas sensibles como suicidio, autolesiones, trastornos alimentarios y relaciones sexuales.
La portavoz de Meta, Stephanie Otway, reconoció que se trató de un “error” y aseguró que la compañía ya implementa cambios provisionales, mientras prepara actualizaciones más sólidas y duraderas para proteger a los menores.
“Aprendemos continuamente sobre cómo los jóvenes interactúan con estas herramientas y reforzamos nuestras protecciones en consecuencia”, declaró.
Además de ajustar el entrenamiento de sus modelos, Meta limitará el acceso de adolescentes a personajes de chatbot sexualizados, como aquellos creados por usuarios en plataformas como Instagram y Facebook, bajo nombres como “Step Mom” o “Russian Girl”.
Pues Meta opera chatbots en servicios como WhatsApp, Instagram, Facebook y Threads, donde la interacción con IA se ha vuelto cada vez más común entre usuarios jóvenes.
Esto ocurre después de que en las recientes semanas, se han documentado casos judiciales en Estados Unidos donde se acusa a empresas como OpenAI y Character.AI de negligencia tras el suicidio de adolescentes que interactuaron con sus sistemas.