Sam Altman y la compañía que dirige, OpenAI, fueron demandados por la familia de Adam Raine, de 16 años, en agosto. Los padres refieren que la inteligencia artificial de la compañía no proporcionó al adolescente los medios de ayuda necesarios e incluso lo alentó a terminar con su vida. El menor falleció en abril.
OpenAI lamentó lo sucedido en el caso del chico y manifestó que implementaría controles parentales en su modelo.
Así, este 29 de septiembre, la empresa informó su decisión de habilitar estos recursos y una nueva página para padres.
“Disponible para todos los usuarios de ChatGPT a partir de hoy, los controles parentales permiten a los padres vincular su cuenta con la de su hijo adolescente y personalizar la configuración para una experiencia segura y apropiada para su edad”, puntualizó.
Lee también: GPT-5: todo lo que puede hacer por ti
Cómo funcionan las nuevas herramientas
OpenAI expresó que un padre o tutor envía una invitación a su hijo adolescente para conectar las cuentas. “Una vez que la acepta, el padre o tutor puede administrar la configuración del menor desde su propia cuenta. Los adolescentes también pueden invitar a uno de sus padres a conectarse”.
De manera automática, en una cuenta “conectada” a la de un adulto, se establecen protecciones de contenido adicionales, como contenido gráfico reducido, ideales de belleza extremos, desafíos virales y juegos de rol sexuales, románticos o violentos.
La empresa agregó que también ofrece a los padres funciones adicionales, desde una sencilla página, que pueden personalizar para sus hijos adolescentes.
- Establecer horas de silencio o momentos específicos en los que no se puede usar ChatGPT.
- Desactivar el modo de voz, con lo que no se podrá ejecutar ChatGPT en esta opción.
- Inhabilitar la memoria con el fin de que el asistente no guarde registros.
- Eliminación de la alternativa de generar imágenes.
- No participar en los entrenamientos del modelo por medio de las conversaciones.
“Estas configuraciones son opcionales y flexibles para que las familias puedan elegir lo que funciona mejor”, aseguró OpenAI.
Participación de un equipo de personas
“Hemos agregado protecciones que ayudan a ChatGPT a reconocer posibles señales de que un adolescente podría estar pensando en hacerse daño”, apuntó la empresa liderada por Altman.
Si los sistemas detectan un posible daño, un equipo de personas, especialmente capacitado, revisa la situación. Si hay indicios de angustia aguda, este grupo se pondrá en contacto con los padres por correo, mensaje de texto y notificación emergente.
“También estamos trabajando en el proceso y las circunstancias correctas para llegar a las fuerzas del orden u otros servicios de emergencia, por ejemplo, si detectamos una amenaza inminente a la vida y no podemos comunicarnos con un padre”, finalizó la compañía.
También te puede interesar…