Cinco formas en que se podría regular la IA
Aunque sus intentos de mantenerse al día con los avances en inteligencia artificial en su mayoría han fracasado, los reguladores de todo el mundo están adoptando enfoques muy diferentes para controlar la tecnología. El resultado es un panorama regulatorio global altamente fragmentado y confuso para una tecnología sin fronteras que promete transformar los mercados laborales, contribuir a la difusión de desinformación o incluso presentar un riesgo para la humanidad.
Los principales marcos para regular la IA incluyen:
La ley europea basada en el riesgo: La Ley de IA de la Unión Europea, que se está negociando el miércoles, asigna regulaciones proporcionales al nivel de riesgo que plantea una herramienta de IA. La idea es crear una escala móvil de regulaciones destinadas a imponer las mayores restricciones a los sistemas de IA más riesgosos. La ley clasificaría las herramientas de IA según cuatro designaciones: inaceptable, alto, limitado y mínimo riesgo.
Los riesgos inaceptables incluyen sistemas de inteligencia artificial que realizan puntuaciones sociales de personas o reconocimiento facial en tiempo real en lugares públicos. Estarían prohibidos. Otras herramientas que conllevan menos riesgos, como el software que genera vídeos manipulados e imágenes «deepfake», deben revelar que las personas están viendo contenido generado por IA. Los infractores podrían recibir una multa del 6 por ciento de sus ventas globales. Los sistemas de riesgo mínimo incluyen filtros de spam y videojuegos generados por IA.
Códigos de conducta voluntarios de EE. UU.: La administración Biden ha dado a las empresas margen de maniobra para controlarse voluntariamente en busca de riesgos de seguridad. En julio, la Casa Blanca anunció que varios fabricantes de inteligencia artificial, incluidos Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, habían acordado autorregular sus sistemas.
Los compromisos voluntarios incluyeron pruebas de seguridad de herramientas por parte de terceros, conocidas como equipos de red, investigación sobre prejuicios y preocupaciones sobre la privacidad, intercambio de información sobre riesgos con gobiernos y otras organizaciones, y desarrollo de herramientas para luchar contra desafíos sociales como el cambio climático, incluyendo Medidas de transparencia para identificar material generado por IA. Las empresas ya estaban cumpliendo muchos de esos compromisos.
Ley estadounidense basada en la tecnología: Cualquier regulación sustancial de la IA tendrá que provenir del Congreso. El líder de la mayoría del Senado, Chuck Schumer, demócrata de Nueva York, ha prometido un proyecto de ley integral para la IA, posiblemente el próximo año.
Pero hasta ahora, los legisladores han presentado proyectos de ley centrados en la producción y el despliegue de sistemas de inteligencia artificial. Las propuestas incluyen la creación de una agencia como la Administración de Alimentos y Medicamentos que podría crear regulaciones para los proveedores de IA, aprobar licencias para nuevos sistemas y establecer estándares. Sam Altman, director ejecutivo de OpenAI, apoyó la idea. Google, sin embargo, ha propuesto que el Instituto Nacional de Estándares y Tecnología, fundado hace más de un siglo sin poderes regulatorios, sirva como centro de supervisión gubernamental.
Otros proyectos de ley se centran en las violaciones de derechos de autor por parte de sistemas de inteligencia artificial que devoran propiedad intelectual para crear sus sistemas. También se han presentado propuestas sobre la seguridad electoral y la limitación del uso de “deep fakes”.
China avanza rápidamente en materia de regulación del discurso: Desde 2021, China ha avanzado rápidamente en la implementación de regulaciones sobre algoritmos de recomendación, contenido sintético como deep fakes e IA generativa. Las reglas prohíben la discriminación de precios mediante algoritmos de recomendación en las redes sociales, por ejemplo. Los creadores de IA deben etiquetar el contenido sintético generado por IA. Y los proyectos de reglas para la IA generativa, como el chatbot de OpenAI, requerirían que los datos de entrenamiento y el contenido que crea la tecnología sean «verdadero y exacto”, lo que muchos ven como un intento de censurar lo que dicen los sistemas.
Cooperación Global: Muchos expertos han dicho que una regulación eficaz de la IA necesitará una colaboración global. Hasta ahora, esos esfuerzos diplomáticos han producido pocos resultados concretos. Una idea que se ha planteado es la creación de una agencia internacional, similar a la Agencia Internacional de Energía Atómica que fue creada para limitar la propagación de armas nucleares. Un desafío será superar la desconfianza geopolítica, la competencia económica y los impulsos nacionalistas que se han entrelazado tanto con el desarrollo de la IA.