Meta exige esfuerzos de la industria para etiquetar el contenido generado por IA

Meta exige esfuerzos de la industria para etiquetar el contenido generado por IA

El mes pasado, en el Foro Económico Mundial en Davos, Suiza, Nick Clegg, presidente de asuntos globales de Meta, calificó un esfuerzo incipiente para detectar contenido generado artificialmente como “la tarea más urgente” que enfrenta la industria tecnológica en la actualidad.

El martes, Clegg propuso una solución. Meta dijo que promovería estándares tecnológicos que las empresas de toda la industria podrían utilizar para reconocer marcadores en material fotográfico, de vídeo y de audio que indicarían que el contenido se generó mediante inteligencia artificial.

Los estándares podrían permitir a las empresas de redes sociales identificar rápidamente el contenido generado con IA que se ha publicado en sus plataformas y permitirles agregar una etiqueta a ese material. Si se adoptan ampliamente, los estándares podrían ayudar a identificar contenido generado por IA de empresas como Google, OpenAI y Microsoft, Adobe, Midjourney y otras que ofrecen herramientas que permiten a las personas crear publicaciones artificiales rápida y fácilmente.

“Aunque ésta no es una respuesta perfecta, no queríamos que lo perfecto fuera enemigo de lo bueno”, dijo Clegg en una entrevista.

Añadió que esperaba que este esfuerzo fuera un grito de guerra para que las empresas de toda la industria adoptaran estándares para detectar y señalar que el contenido era artificial, de modo que fuera más sencillo para todos reconocerlo.

A medida que Estados Unidos entra en un año de elecciones presidenciales, los observadores de la industria creen que las herramientas de inteligencia artificial se utilizarán ampliamente para publicar contenido falso para desinformar a los votantes. Durante el año pasado, la gente utilizó la inteligencia artificial para crear y difundir videos falsos del presidente Biden haciendo declaraciones falsas o incendiarias. La oficina del fiscal general de New Hampshire también está investigando una serie de llamadas automáticas que parecían emplear una voz de Biden generada por IA que instaba a la gente a no votar en una primaria reciente.

Los senadores Brian Schatz, demócrata de Hawaii, y John Kennedy, republicano de Luisiana, legislación propuesta en octubre pasado eso requeriría que las empresas revelen y etiqueten contenido generado artificialmente y trabajen juntas para crear o utilizar estándares similares a los adoptados por Meta.

Meta, propietaria de Facebook, Instagram, WhatsApp y Messenger, se encuentra en una posición única porque está desarrollando tecnología para estimular la adopción generalizada de herramientas de inteligencia artificial por parte de los consumidores y, al mismo tiempo, es la red social más grande del mundo capaz de distribuir contenido generado por inteligencia artificial. Clegg dijo que la posición de Meta le dio una visión particular de los aspectos del problema tanto de generación como de distribución.

Meta se centra en una serie de especificaciones tecnológicas llamadas IPTC y C2PA estándares. Se trata de información que especifica si un medio digital es auténtico en los metadatos del contenido. Los metadatos son la información subyacente incorporada en el contenido digital que proporciona una descripción técnica de ese contenido. Ambos estándares ya son ampliamente utilizados por organizaciones de noticias y fotógrafos para describir fotografías o vídeos.

Adobe, que fabrica el software de edición Photoshop, y muchas otras empresas de tecnología y medios han pasado años presionar a sus pares para que adopten el estándar C2PA y hemos formado la Iniciativa de autenticidad de contenido. La iniciativa es una asociación entre docenas de empresas, incluido The New York Times, para combatir la desinformación y “agregar una capa de procedencia a prueba de manipulaciones a todo tipo de contenido digital, comenzando con fotos, videos y documentos”, según la organización.

Las empresas que ofrecen herramientas de generación de IA podrían agregar los estándares a los metadatos de los videos, fotos o archivos de audio que ayudaron a crear. Eso indicaría a redes sociales como Facebook, X (anteriormente Twitter) y YouTube que dicho contenido era artificial cuando se subía a sus plataformas. Esas empresas, a su vez, podrían agregar etiquetas que indicaran que estas publicaciones fueron generadas por IA para informar a los usuarios que las vieron en las redes sociales.

Meta y otros también exigen que los usuarios que publican contenido de IA indiquen si lo han hecho al subirlo a las aplicaciones de las empresas. No hacerlo da lugar a sanciones, aunque las empresas no han detallado cuáles pueden ser esas sanciones.

Clegg también dijo que si la compañía determina que una publicación creada o alterada digitalmente «crea un riesgo particularmente alto de engañar materialmente al público en un asunto de importancia», Meta podría agregar una etiqueta más destacada a la publicación para darle al público más información. información y contexto sobre su procedencia.

La tecnología de inteligencia artificial avanza rápidamente, lo que ha estimulado a los investigadores a tratar de mantenerse al día con el desarrollo de herramientas sobre cómo detectar contenido falso en línea. Aunque empresas como Meta, TikTok y OpenAI han desarrollado formas de detectar dicho contenido, los tecnólogos han encontrado rápidamente formas de eludir esas herramientas. El vídeo y el audio generados artificialmente han demostrado ser incluso más difíciles de detectar que las fotografías con IA.

(The New York Times Company está demandando a OpenAI y Microsoft por infracción de derechos de autor por el uso de artículos del Times para entrenar sistemas de inteligencia artificial).

“Los malos actores siempre intentarán eludir cualquier estándar que creemos”, dijo Clegg. Describió la tecnología como una “espada y un escudo” para la industria.

Parte de esa dificultad surge de la naturaleza fragmentada de cómo las empresas de tecnología lo abordan. El otoño pasado, TikTok anunció una nueva política eso requeriría que sus usuarios agreguen etiquetas a los videos o fotos que cargaron y que fueron creados con AI YouTube Anunciado una iniciativa similar en noviembre.

La nueva propuesta de Meta intentaría unir algunos de esos esfuerzos. Otros esfuerzos de la industria, como el Asociación sobre IAhan reunido a decenas de empresas para discutir soluciones similares.

Clegg dijo que esperaba que más empresas aceptaran participar en el estándar, especialmente de cara a las elecciones presidenciales.

«Sentimos particularmente fuerte que durante este año electoral, no estaría justificado esperar a que todas las piezas del rompecabezas encajen en su lugar antes de actuar», dijo.