Cali, abril 21 de 2026. Actualizado: lunes, abril 20, 2026 21:35

TEMAS DESTACADOS:

La compañía anunció el 23 de marzo de 2026 que el modelo Sora 2 y la app Sora incorporan medidas para identificar contenidos generados por IA, proteger la imagen y la voz de las personas y limitar riesgos para menores

OpenAI presenta Sora 2: generación de video con marcas de origen y nuevos controles de seguridad

OpenAI publicó el 23 de marzo de 2026 una nota oficial sobre Sora 2 y la app Sora, su propuesta para generar videos asistidos por inteligencia artificial con “seguridad incorporada desde el inicio”.

La compañía detalla una batería de protecciones técnicas y de políticas que, según el comunicado, buscan distinguir contenido artificial, controlar usos de la semejanza de personas y ofrecer vías de reclamo y eliminación para usuarios.

Qué ofrece Sora 2 y cómo se identifica el contenido

OpenAI describe a Sora 2 como un sistema de generación de video que integra señales de procedencia visibles e invisibles en cada video producido.

Entre las medidas concretas están:

  • Metadatos C2PA: cada video incluye metadatos adheridos al estándar industrial C2PA, que sirven como firma de origen.
  • Señales de rastreo internas: herramientas de búsqueda inversa de imagen y audio que, según OpenAI, permiten trazar videos hasta Sora con alta precisión.
  • Marcas visibles dinámicas: muchos resultados llevan marcas de agua en movimiento que incluyen el nombre del creador.

Estas medidas se presentan como mecanismos para que espectadores y plataformas puedan identificar que un video fue generado por Sora.

Guardrails para personas reales y los “characters”

OpenAI afirma que Sora permite crear videos a partir de fotos de familiares y amigos, pero establece requisitos y límites:

  • Consentimiento y declaración: los usuarios que suban imágenes con personas deben atestiguar que tienen el consentimiento de quienes aparecen y los derechos necesarios para hacerlo.
  • Moderación reforzada: las generaciones que usan imágenes con personas están sujetas a guardrails más estrictos que los aplicados a la función de “characters” (anteriormente denominada cameo). Las imágenes que incluyen niños o personas de aspecto joven reciben controles aún más rigurosos.
  • Marcas al compartir: esos videos recibirán marcas de agua al ser compartidos.

La función de “characters” permite capturar y controlar la propia semejanza (imagen y voz).

OpenAI dice que solo el propietario decide quién puede usar un character y que puede revocar accesos; además, los propietarios ven todos los videos que incluyen su character y pueden eliminarlos o denunciarlos.

La compañía también afirma que aplica medidas para bloquear representaciones de figuras públicas, salvo cuando se usan mediante characters.

Protecciones para adolescentes y moderación de contenido

OpenAI describe protecciones específicas para usuarios jóvenes: controles que limitan contenidos maduros, un feed diseñado para ser apropiado, la imposibilidad de que adultos inicien mensajes directos con adolescentes y herramientas parentales en ChatGPT para gestionar DMs y seleccionar un feed no personalizado.

Además, los perfiles de adolescentes tienen límites por defecto sobre cuánto pueden desplazarse continuamente en la app.

En materia de moderación general, Sora combina defensas en múltiples capas: revisiones automáticas de prompts y de los outputs (incluyendo transcripciones de audio y múltiples frames de video), filtros que buscan bloquear material sexual, propaganda terrorista y promoción de autolesiones, y escaneos continuos del feed contra las Políticas Globales de Uso.

OpenAI señala que estos sistemas se complementan con revisión humana enfocada en los daños de mayor impacto y que la compañía ha realizado ejercicios de red teaming para explorar riesgos.

Audio, derechos de autor y control del usuario

El anuncio aborda desafíos propios del audio: Sora escanea automáticamente transcripciones de voz generada para detectar violaciones de políticas y bloquea intentos de generar música que imite artistas vivos o trabajos existentes; OpenAI indica que su sistema está diseñado para detener esos prompts y que atiende solicitudes de retirada de creadores que aleguen infracción.

Finalmente, la empresa enfatiza que los usuarios eligen cuándo compartir videos y pueden eliminar contenido publicado. Todas las piezas (videos, perfiles, mensajes directos, comentarios y characters) pueden denunciarse, y bloquear cuentas impide que esas cuentas vean el perfil, usen un character o contacten mediante DMs.

Conceptos útiles para entender la propuesta

  • Modelo multimodal: sistema que procesa y genera varios tipos de datos (imagen, audio y texto). Sora incluye generación de video y audio, por lo que se enmarca en esta categoría.
  • Metadatos C2PA: estándar industrial para firmar y declarar origen de archivos multimedia, útil para trazar procedencia.
  • Guardrails: controles técnicos y de política diseñados para impedir usos dañinos o no autorizados.

Qué queda por ver

El comunicado de OpenAI detalla las herramientas y promesas de seguridad, pero no incluye métricas públicas ni evaluaciones independientes sobre la eficacia de estos mecanismos en el mundo real.

La puesta en práctica, la capacidad de los sistemas automáticos para abarcar nuevos riesgos y la respuesta a abusos dependerán de la implementación y del escrutinio externo.

Nota de Transparencia

Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

Sello IA

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻

Curaduría editorial

Curaduría editorial

La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.

Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.

Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.

El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.

Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.


Banner Canal WhatsApp

Comments

Cargando Artículo siguiente ...

Fin de los artículos

pdf diario

Destacado

PUBLICIDAD
Publicidad
Publicidad
Diario Occidente

Una publicación diaria del Nuevo Diario Occidente S.A. Fundado el 19 de noviembre de 1961

© 1961 - 2026. NUEVO DIARIO OCCIDENTE S.A.
Prohibida su reproducción total o parcial, así como su traducción a cualquier idioma sin autorización escrita del titular.

Ver mapa del sitio | Desarrollado por: