OpenAI introduce controles parentales en ChatGPT tras polémica por suicidio de un joven

0
232
Imagen de archivo. EFE/EPA/ETIENNE LAURENT

OpenAI, empresa creadora de ChatGPT, anunció que a partir del próximo mes incorporará controles parentales en su chatbot, luego de enfrentar críticas y demandas por el presunto vínculo de la herramienta con casos de autolesiones y suicidios de adolescentes.

La tecnológica explicó que los nuevos ajustes permitirán a los padres vincular sus cuentas con las de sus hijos, revisar las interacciones del chatbot e incluso recibir alertas si el sistema detecta señales de inestabilidad emocional en los menores.

“Estos pasos son solo el comienzo (…) Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible”, señaló la compañía en un comunicado.

El anuncio se produce tras la denuncia de los padres de un joven de 16 años en California, quienes aseguran que el adolescente se quitó la vida después de interactuar durante meses con ChatGPT bajo el modelo GPT-4o, sin que este aplicara medidas de seguridad pese a las intenciones suicidas detectadas.

Además, OpenAI confirmó que las conversaciones con signos de estrés agudo serán derivadas hacia un modelo especializado, entrenado con directrices de seguridad más estrictas.

La decisión ocurre en medio de la presión de legisladores y grupos de defensa, como Common Sense Media, que han advertido de los riesgos de que menores de edad usen chatbots de IA debido al apego emocional y la dependencia que pueden generar.