El objetivo es exigir a los anunciantes políticos que revelen el uso de la IA
Meta pasó años descubriendo cómo manejar la publicidad política en Facebook e Instagram. Estableció sistemas y desarrolló políticas sobre qué tipos de anuncios políticos estaban y no permitidos en sus plataformas.
Pero eso fue antes del auge de la inteligencia artificial de consumo.
El miércoles, Meta introdujo una nueva política para abordar los efectos de la IA en la publicidad política. La compañía de Silicon Valley dijo que a partir del próximo año exigiría a los anunciantes políticos de todo el mundo que revelen cuándo habían utilizado software de inteligencia artificial de terceros en anuncios sobre temas políticos o sociales para representar sintéticamente personas y eventos.
Meta añadió que prohibiría a los anunciantes utilizar su propio software asistido por IA para crear anuncios sobre temas políticos o sociales, así como anuncios relacionados con vivienda, empleo, crédito, salud, productos farmacéuticos o servicios financieros. Esos anunciantes podrían utilizar herramientas de inteligencia artificial de terceros, como los generadores de imágenes DALL-E y Midjourney, pero con revelaciones.
«Creemos que este enfoque nos permitirá comprender mejor los riesgos potenciales y crear las salvaguardias adecuadas para el uso de IA generativa en anuncios relacionados con temas potencialmente sensibles en industrias reguladas», dijo la compañía. dicho.
Meta se enfrenta a una ola de herramientas de inteligencia artificial que el público ha adoptado durante el año pasado. A medida que los consumidores han acudido en masa a ChatGPT, Google Bard, Midjourney y otros productos de “IA generativa”, las grandes empresas de tecnología como Meta han tenido que repensar cómo manejar una nueva era de imágenes, videos y audio manipulados o completamente falsos.
La publicidad política ha sido durante mucho tiempo un tema polémico para Meta. En 2016, Facebook fue criticado por su falta de supervisión después de que los rusos utilizaran los anuncios de la red social para sembrar descontento entre los estadounidenses. Desde entonces, Mark Zuckerberg, fundador y director ejecutivo de Meta, ha gastado miles de millones de dólares trabajando para acabar con la desinformación y la desinformación en las plataformas de la compañía y ha contratado contratistas independientes para monitorear de cerca los anuncios políticos que pasan por el sistema.
La compañía tampoco ha rehuido permitir que los políticos mientan en anuncios en la plataforma, lo que Zuckerberg ha defendido por motivos de libertad de expresión y discurso público. Meta también se ha mostrado reacio a limitar el discurso de los funcionarios electos. Nick Clegg, presidente de asuntos globales de Meta, ha pedido orientación regulatoria sobre estos temas en lugar de que las empresas de tecnología determinen las reglas.
Quienes publican anuncios políticos en Meta actualmente deben completar un proceso de autorización e incluir un descargo de responsabilidad de «pago por» en los anuncios, que se almacenan en la biblioteca de anuncios pública de la compañía durante siete años para que periodistas y académicos puedan estudiarlos.
Cuando la nueva política de IA de Meta entre en vigor el próximo año, se pedirá a las campañas políticas y a los especialistas en marketing que revelen si utilizan herramientas de IA para alterar los anuncios. Si lo han hecho y se acepta el anuncio, la empresa lo publicará con la información de que fue creado con herramientas de inteligencia artificial. Meta dijo que no requeriría que los anunciantes revelen modificaciones que fueran “inconsecuentes o irrelevantes para el reclamo, afirmación o problema planteado”, como retoque fotográfico y recorte de imágenes.
Los anuncios sobre temas políticos y sociales que aparentemente hayan utilizado inteligencia artificial para alterar imágenes, videos y audio pero que no hayan revelado que lo han hecho serán rechazados, dijo la compañía. Las organizaciones que intenten repetidamente presentar este tipo de anuncios sin divulgar información serán penalizadas, añadió, sin especificar cuáles podrían ser las sanciones. La compañía lleva mucho tiempo contando con socios externos de verificación de datos que revisan, califican y potencialmente eliminan anuncios diseñados para difundir información errónea.
Al impedir que los anunciantes utilicen el software asistido por IA de la propia empresa para crear anuncios sobre temas políticos o sociales, Meta puede evitar dolores de cabeza o litigios relacionados con su tecnología publicitaria.
En 2019, el Departamento de Justicia demandó a la empresa por permitir a los anunciantes discriminar a los usuarios de Facebook por su raza, género, religión y otras características. La empresa finalmente resolvió la demanda y acordó modificar su tecnología publicitaria y pagar una multa de 115.054 dólares.