Google está regalando parte de la IA que impulsa los chatbots

Google está regalando parte de la IA que impulsa los chatbots

Cuando Meta compartió el código informático en bruto necesario para construir un chatbot el año pasado, las empresas rivales dijeron que Meta estaba lanzando al mundo tecnología poco comprendida y quizás incluso peligrosa.

Ahora, en una señal de que los críticos de compartir la tecnología de IA están perdiendo terreno frente a sus pares de la industria, Google está tomando una medida similar. Google lanzó el miércoles el código informático que impulsa su chatbot en línea, después de mantener este tipo de tecnología oculta durante muchos meses.

Al igual que Meta, Google dijo que los beneficios de compartir libremente la tecnología -llamada modelo de lenguaje grande- superaban los riesgos potenciales.

La compañía dijo en una publicación de blog que estaba lanzando dos modelos de lenguaje de inteligencia artificial que podrían ayudar a empresas externas y desarrolladores de software independientes a construir chatbots en línea similares al propio chatbot de Google. Llamadas Gemma 2B y Gemma 7B, no son las tecnologías de inteligencia artificial más poderosas de Google, pero la compañía argumentó que rivalizan con muchos de los sistemas líderes de la industria.

«Esperamos volver a involucrar a la comunidad de desarrolladores externos y asegurarnos de que» los modelos basados ​​en Google se conviertan en un estándar de la industria sobre cómo se construye la IA moderna, dijo en una entrevista Tris Warkentin, director de gestión de productos de Google DeepMind. .

Google dijo que no tenía planes actuales de lanzar su modelo insignia de IA, Gemini, de forma gratuita. Debido a que es más eficaz, Géminis también podría causar más daño.

Este mes, Google comenzó a cobrar por el acceso a la versión más potente de Gemini. Al ofrecer el modelo como un servicio en línea, la empresa puede controlar más estrechamente la tecnología.

Preocupadas de que las tecnologías de inteligencia artificial se utilicen para difundir desinformación, discursos de odio y otros contenidos tóxicos, algunas empresas, como OpenAI, el fabricante del chatbot en línea ChatGPT, se han vuelto cada vez más reservadas sobre los métodos y el software que sustentan sus productos.

Pero otros, como Meta y la nueva empresa francesa Mistral, han argumentado que compartir código libremente (llamado código abierto) es el enfoque más seguro porque permite a personas externas identificar problemas con la tecnología y sugerir soluciones.

Yann LeCun, científico jefe de IA de Meta, ha argumentado que los consumidores y los gobiernos se negarán a adoptar la IA a menos que esté fuera del control de empresas como Google, Microsoft y Meta.

“¿Quiere que todos los sistemas de inteligencia artificial estén bajo el control de un par de poderosas empresas estadounidenses?” Le dije al New York Times el año pasado.

En el pasado, Google abrió muchas de sus principales tecnologías de IA, incluida la tecnología fundamental para chatbots de IA. Pero bajo la presión competitiva de OpenAI, se volvió más secreto cómo se construyeron.

La compañía decidió hacer que su IA volviera a estar disponible de forma más gratuita debido al interés de los desarrolladores, dijo en una entrevista Jeanine Banks, vicepresidenta de relaciones con desarrolladores de Google.

Mientras se preparaba para lanzar sus tecnologías Gemma, la compañía dijo que había trabajado para garantizar que fueran seguras y que usarlas para difundir desinformación y otro material dañino violaba su licencia de software.

«Nos aseguramos de que estamos lanzando enfoques completamente seguros tanto en el ámbito privado como en el ámbito abierto tanto como sea posible», dijo el Sr. Warkentin. «Con los lanzamientos de estos modelos 2B y 7B, estamos relativamente seguros de que hemos adoptado un enfoque extremadamente seguro y responsable para garantizar que puedan aterrizar bien en la industria».

Pero los malos actores aún podrían utilizar estas tecnologías para causar problemas.

Google está permitiendo a las personas descargar sistemas que han sido entrenados con enormes cantidades de texto digital producido a partir de Internet. Los investigadores llaman a esto “liberar los pesos”, en referencia a los valores matemáticos particulares que aprende el sistema mientras analiza los datos.

Analizar todos esos datos normalmente requiere cientos de chips de computadora especializados y decenas de millones de dólares. Se trata de recursos que la mayoría de las organizaciones (y mucho menos los individuos) no tienen.