Cali, septiembre 29 de 2025. Actualizado: lunes, septiembre 29, 2025 21:15
La inteligencia artificial (IA) es una herramienta cotidiana para millones de personas, que la utilizan para resolver desde dudas simples hasta temas muy personales.
Sin embargo, el uso de estas tecnologías plantea retos importantes, especialmente cuando hablamos de adolescentes y su seguridad en el entorno digital.
OpenAI, líder en desarrollo de IA, ha dado a conocer sus principios para proteger a usuarios jóvenes, equilibrando seguridad, libertad y privacidad, elementos que a veces pueden entrar en conflicto.
El equipo de OpenAI reconoce que las conversaciones con los sistemas de IA son únicas, ya que muchas veces contienen información muy personal.
Por eso, decidió proteger esta privacidad con la misma rigurosidad que la que se aplica a conversaciones con médicos o abogados.
Esto significa que los datos no estarán al alcance del personal de OpenAI, salvo en casos muy específicos y críticos, como amenazas a la vida o riesgos graves para la sociedad, que pueden ser revisados por humanos para evitar daños mayores.
OpenAI trabaja para que los usuarios puedan usar la IA dentro de “muy amplios límites de seguridad”. Por ejemplo, un adulto puede solicitar conversaciones más abiertas, como diálogo romántico, o pedir ayuda para escribir una historia ficticia con temas complicados, como el suicidio, y la IA estará preparada para responder.
A esto lo llaman “tratar a los adultos como adultos”, buscando respetar la libertad sin causar daño.
Pero cuando se trata de adolescentes, el enfoque cambia: la seguridad es prioritaria sobre la privacidad y libertad.
Para implementarlo, OpenAI está desarrollando un sistema que estima la edad de los usuarios basándose en su forma de interactuar con ChatGPT. Si dudan, asumen que son menores y aplican las reglas más estrictas para cuidarlos.
Entre las medidas para adolescentes, ChatGPT está programado para evitar ciertas respuestas, como conversaciones coquetas o discusiones sobre autolesiones, aun cuando formen parte de una historia de ficción.
Además, si se detecta que un menor tiene ideas suicidas, el sistema intentará contactar primero a sus padres o tutores y, si no es posible, a las autoridades para evitar daños inmediatos.
En algunos países o situaciones, OpenAI podría solicitar identificación para verificar la edad, aunque reconocen que esto representa un compromiso en materia de privacidad para los adultos, pero consideran que vale la pena para proteger a los jóvenes.
OpenAI sabe que no todos estarán de acuerdo con este balance entre libertad, privacidad y protección, pero luego de consultar expertos consideran que esta es la mejor manera de usar esta avanzada tecnología para beneficio de la sociedad.
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.
🧠 Este artículo fue elaborado con apoyo de inteligencia artificial.
Queremos saber qué piensas sobre este tipo de contenidos. ¿Lo notaste? ¿Te pareció útil, claro, diferente?
🎯 Tu opinión es clave para seguir mejorando.
👉Haz click para contestar una corta encuesta, te tomará menos de 1 minuto.
Fin de los artículos
Ver mapa del sitio | Desarrollado por: