Cali, abril 21 de 2026. Actualizado: lunes, abril 20, 2026 21:35
OpenAI publicó el 23 de marzo de 2026 una nota oficial sobre Sora 2 y la app Sora, su propuesta para generar videos asistidos por inteligencia artificial con “seguridad incorporada desde el inicio”.
La compañía detalla una batería de protecciones técnicas y de políticas que, según el comunicado, buscan distinguir contenido artificial, controlar usos de la semejanza de personas y ofrecer vías de reclamo y eliminación para usuarios.
OpenAI describe a Sora 2 como un sistema de generación de video que integra señales de procedencia visibles e invisibles en cada video producido.
Entre las medidas concretas están:
Estas medidas se presentan como mecanismos para que espectadores y plataformas puedan identificar que un video fue generado por Sora.
OpenAI afirma que Sora permite crear videos a partir de fotos de familiares y amigos, pero establece requisitos y límites:
La función de “characters” permite capturar y controlar la propia semejanza (imagen y voz).
OpenAI dice que solo el propietario decide quién puede usar un character y que puede revocar accesos; además, los propietarios ven todos los videos que incluyen su character y pueden eliminarlos o denunciarlos.
La compañía también afirma que aplica medidas para bloquear representaciones de figuras públicas, salvo cuando se usan mediante characters.
OpenAI describe protecciones específicas para usuarios jóvenes: controles que limitan contenidos maduros, un feed diseñado para ser apropiado, la imposibilidad de que adultos inicien mensajes directos con adolescentes y herramientas parentales en ChatGPT para gestionar DMs y seleccionar un feed no personalizado.
Además, los perfiles de adolescentes tienen límites por defecto sobre cuánto pueden desplazarse continuamente en la app.
En materia de moderación general, Sora combina defensas en múltiples capas: revisiones automáticas de prompts y de los outputs (incluyendo transcripciones de audio y múltiples frames de video), filtros que buscan bloquear material sexual, propaganda terrorista y promoción de autolesiones, y escaneos continuos del feed contra las Políticas Globales de Uso.
OpenAI señala que estos sistemas se complementan con revisión humana enfocada en los daños de mayor impacto y que la compañía ha realizado ejercicios de red teaming para explorar riesgos.
El anuncio aborda desafíos propios del audio: Sora escanea automáticamente transcripciones de voz generada para detectar violaciones de políticas y bloquea intentos de generar música que imite artistas vivos o trabajos existentes; OpenAI indica que su sistema está diseñado para detener esos prompts y que atiende solicitudes de retirada de creadores que aleguen infracción.
Finalmente, la empresa enfatiza que los usuarios eligen cuándo compartir videos y pueden eliminar contenido publicado. Todas las piezas (videos, perfiles, mensajes directos, comentarios y characters) pueden denunciarse, y bloquear cuentas impide que esas cuentas vean el perfil, usen un character o contacten mediante DMs.
El comunicado de OpenAI detalla las herramientas y promesas de seguridad, pero no incluye métricas públicas ni evaluaciones independientes sobre la eficacia de estos mecanismos en el mundo real.
La puesta en práctica, la capacidad de los sistemas automáticos para abarcar nuevos riesgos y la respuesta a abusos dependerán de la implementación y del escrutinio externo.
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.


La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.

Fin de los artículos
Ver mapa del sitio | Desarrollado por: