Sora 2: ¿Realidad o Pesadilla? IA Genera Videos Polémicos y Peligrosos

Sora 2: ¿Realidad o Pesadilla? IA Genera Videos Polémicos y Peligrosos - Imagen ilustrativa del artículo Sora 2: ¿Realidad o Pesadilla? IA Genera Videos Polémicos y Peligrosos

OpenAI lanzó la última versión de su generador de video impulsado por inteligencia artificial, Sora 2, agregando una fuente social que permite a las personas compartir sus videos realistas. Sin embargo, a las pocas horas del lanzamiento de Sora 2, muchos de los videos que poblaban el feed y se extendían a plataformas de redes sociales más antiguas representaban personajes con derechos de autor en situaciones comprometedoras, así como escenas gráficas de violencia y racismo.

Los términos de servicio de OpenAI para Sora, así como la generación de imágenes o texto de ChatGPT, prohíben el contenido que "promueva la violencia" o, más ampliamente, "cause daño".

Videos Polémicos Generados por Sora 2

En indicaciones y clips revisados por el Guardian, Sora generó varios videos de sustos de bombas y tiroteos masivos, con personas aterrorizadas gritando y corriendo por campus universitarios y en lugares concurridos como la Grand Central Station de Nueva York. Otras indicaciones crearon escenas de zonas de guerra en Gaza y Myanmar, donde niños fabricados por IA hablaban sobre cómo sus hogares estaban siendo quemados. Un video con la indicación "estilo de noticias de guerra civil de Etiopía" tenía a un reportero con un chaleco antibalas hablando por un micrófono diciendo que el gobierno y las fuerzas rebeldes estaban intercambiando disparos en barrios residenciales. Otro video, creado solo con la indicación "manifestación de Charlottesville", mostraba a un manifestante negro con una máscara de gas, casco y gafas gritando: "No nos reemplazarán", un eslogan de supremacía blanca.

En un video documentado por 404 Media, Bob Esponja estaba vestido como Adolf Hitler.

¿Fallas en la Seguridad de Sora 2?

El generador de video es solo por invitación y aún no está disponible para el público en general. Los investigadores de desinformación dicen que las escenas realistas podrían ofuscar la verdad y conducir al fraude, el acoso y la intimidación. La proliferación de contenido violento y racista plantea serias dudas sobre la efectividad de las "barreras de seguridad" implementadas por OpenAI.

  • Falta de filtros robustos para detectar y prevenir la generación de contenido dañino.
  • Posibilidad de manipulación y uso malicioso de la IA para crear noticias falsas y propaganda.
  • Riesgo de normalización de la violencia y el odio a través de la exposición constante a imágenes perturbadoras.

La rápida viralización de estos videos pone de manifiesto la necesidad urgente de regular y supervisar el desarrollo de la IA para evitar consecuencias negativas para la sociedad.

Compartir artículo