La compañía tecnológica OpenAI, responsable de ChatGPT, anunció la introducción de nuevas funciones de control parental en su popular asistente de inteligencia artificial, en respuesta a las crecientes preocupaciones y demandas relacionadas con su impacto en la salud emocional de los usuarios, especialmente menores de edad. La medida surge después de que un joven de 16 años se quitara la vida tras meses de interacción con el chatbot, lo que llevó a una demanda en California contra OpenAI y su CEO, Sam Altman, por no haber aplicado suficientes medidas de seguridad ante indicios de ideación suicida.
OpenAI afirmó que estos controles son solo el inicio de un proceso de mejora continua, guiado por expertos en salud mental y seguridad digital, con el objetivo de hacer a ChatGPT más seguro y útil para todos los usuarios. La nueva funcionalidad, que estará disponible a partir del próximo mes, permitirá a los padres vincular sus cuentas con las de sus hijos, revisar las respuestas del chatbot y recibir alertas cuando detecte signos de inestabilidad emocional en los menores.
Además, la empresa anunció que dirigirá las conversaciones que muestren signos de “estrés agudo” a un modelo especializado, con directrices de seguridad más estrictas, para evitar respuestas potencialmente dañinas. Estas medidas buscan responder a las críticas y preocupaciones expresadas por legisladores y organizaciones de defensa, que alertan sobre los riesgos de dependencia emocional y aislamiento social asociados al uso de ChatGPT en adolescentes.
El anuncio llega en un contexto de creciente escrutinio sobre la seguridad y los efectos psicológicos de la inteligencia artificial, con legisladores estadounidenses exigiendo mayor transparencia y responsabilidad por parte de las empresas tecnológicas. Expertos y grupos de defensa continúan advirtiendo sobre los riesgos que implica el acceso de menores a aplicaciones de IA sin suficientes controles, en medio de debates sobre la regulación y el uso responsable de estas tecnologías.