El miedo y la tensión que llevaron al derrocamiento de Sam Altman en OpenAI

El miedo y la tensión que llevaron al derrocamiento de Sam Altman en OpenAI

Durante el último año, Sam Altman llevó OpenAI a la mesa de adultos de la industria tecnológica. Gracias a su enormemente popular chatbot ChatGPT, la nueva empresa de San Francisco estaba en el centro de un auge de la inteligencia artificial, y Altman, director ejecutivo de OpenAI, se había convertido en una de las personas más reconocidas en tecnología.

Pero ese éxito generó tensiones dentro de la empresa. Ilya Sutskever, un respetado investigador de IA que cofundó OpenAI con Altman y otras nueve personas, estaba cada vez más preocupado de que la tecnología de OpenAI pudiera ser peligrosa y de que Altman no estuviera prestando suficiente atención a ese riesgo, según tres personas familiarizadas con sus pensamientos. Sutskever, miembro de la junta directiva de la empresa, también se opuso a lo que consideraba su papel disminuido dentro de la empresa, según dos de las personas.

Ese conflicto entre el rápido crecimiento y la seguridad de la IA se puso de relieve el viernes por la tarde, cuando Altman fue expulsado de su trabajo por cuatro de los seis miembros de la junta directiva de OpenAI, encabezados por Sutskever. La medida sorprendió a los empleados de OpenAI y al resto de la industria tecnológica, incluido Microsoft, que ha invertido 13 mil millones de dólares en la empresa. Algunos expertos de la industria decían que la división era tan significativa como cuando Steve Jobs fue expulsado de Apple en 1985.

La destitución de Altman, de 38 años, llamó la atención sobre una brecha de larga data en la comunidad de IA entre personas que creen que la IA es la mayor oportunidad de negocios en una generación y otros que temen que avanzar demasiado rápido podría ser peligroso. Y el derrocamiento mostró cómo un movimiento filosófico dedicado al miedo a la IA se había convertido en una parte inevitable de la cultura tecnológica.

Desde que se lanzó ChatGPT hace casi un año, la inteligencia artificial ha capturado la imaginación del público, con la esperanza de que pueda usarse para trabajos importantes como la investigación de drogas o para ayudar a enseñar a los niños. Pero algunos científicos y líderes políticos de la IA se preocupan por sus riesgos, como la desaparición de trabajos automatizados o la guerra autónoma que va más allá del control humano.

Los temores de que los investigadores de IA estuvieran construyendo algo peligroso han sido una parte fundamental de la cultura de OpenAI. Sus fundadores creían que, como entendían esos riesgos, eran las personas adecuadas para construirlo.

La junta directiva de OpenAI no ha ofrecido una razón específica de por qué expulsó a Atman, aparte de decir en una publicación de blog que no creía que se estuviera comunicando honestamente con ellos. A los empleados de OpenAI se les dijo el sábado por la mañana que su eliminación no tenía nada que ver con “malversación ni nada relacionado con nuestras prácticas financieras, comerciales, de seguridad o de privacidad”, según un mensaje visto por The New York Times.

Greg Brockman, otro cofundador y presidente de la empresa, renunció en protesta el viernes por la noche. Lo mismo hizo el director de investigación de OpenAI. El sábado por la mañana, la empresa estaba sumida en el caos, según media docena de empleados actuales y anteriores, y sus aproximadamente 700 empleados luchaban por entender por qué la junta tomó esta decisión.

«Estoy seguro de que todos ustedes sienten confusión, tristeza y tal vez algo de miedo», dijo Brad Lightcap, director de operaciones de OpenAI, en un memorando a los empleados de OpenAI. «Estamos completamente concentrados en manejar esto, avanzar hacia la resolución y la claridad y volver al trabajo».

Se le pidió a Altman que se uniera a una reunión de la junta directiva por video al mediodía en San Francisco el viernes. Allí, Sutskever, de 37 años, leyó un guión que se parecía mucho a la publicación del blog que la compañía publicó minutos después, según una persona familiarizada con el asunto. La publicación decía que Altman “no fue consistentemente sincero en sus comunicaciones con la junta, lo que obstaculizó su capacidad para ejercer sus responsabilidades”.

Pero en las horas siguientes, los empleados de OpenAI y otros se centraron no sólo en lo que Altman pudo haber hecho, sino también en la forma en que está estructurada la nueva empresa de San Francisco y las opiniones extremas sobre los peligros de la IA incorporadas en el trabajo de la empresa desde entonces. fue creado en 2015.

El sábado no fue posible contactar a Sutskever y Altman para hacer comentarios.

En las últimas semanas, Jakub Pachocki, quien ayudó a supervisar GPT-4, la tecnología en el corazón de ChatGPT, fue ascendido a director de investigación de la empresa. Después de ocupar previamente un puesto por debajo de Sutskever, fue ascendido a un puesto junto a Sutskever, según dos personas familiarizadas con el asunto.

Pachocki renunció a la empresa el viernes por la noche, dijeron las personas, poco después que Brockman. Más temprano ese mismo día, OpenAI dijo que Brockman había sido destituido como presidente de la junta y reportaría a la nueva directora ejecutiva interina, Mira Murati. Otros aliados de Altman, incluidos dos investigadores de alto nivel, Szymon Sidor y Aleksander Madry, también abandonaron la empresa.

El señor Brockman dijo en un publicar en, anteriormente Twitter, que aunque era el presidente de la junta, no formó parte de la reunión de la junta en la que estaba el Sr. Altman. Eso dejó al Sr. Sutskever y a otros tres miembros de la junta directiva: Adam D’Angelo, director ejecutivo del sitio de preguntas y respuestas Quora; Tasha McCauley, científica adjunta de alta dirección en RAND Corporation; y Helen Toner, directora de estrategia y becas de investigación fundamental del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown.

No fue posible contactarlos para hacer comentarios el sábado.

McCauley y Toner tienen vínculos con los movimientos Racionalista y Altruista Efectivo, una comunidad que está profundamente preocupada de que la IA algún día pueda destruir a la humanidad. La tecnología de inteligencia artificial actual no puede destruir a la humanidad. Pero esta comunidad cree que a medida que la tecnología se vuelva cada vez más poderosa, surgirán estos peligros.

En 2021, un investigador llamado Dario Amodei, que también tiene vínculos con esta comunidad, y otros 15 empleados de OpenAI abandonaron la empresa para formar una nueva empresa de IA llamada Anthropic.

Sutskever estaba cada vez más alineado con esas creencias. Nacido en la Unión Soviética, pasó sus años de formación en Israel y emigró a Canadá cuando era adolescente. Como estudiante universitario en la Universidad de Toronto, ayudó a crear un gran avance en una tecnología de inteligencia artificial llamada redes neuronales.

En 2015, Sutskever dejó su trabajo en Google y ayudó a fundar OpenAI junto con Altman, Brockman y el director ejecutivo de Tesla, Elon Musk. Construyeron el laboratorio como una organización sin fines de lucro y dijeron que, a diferencia de Google y otras empresas, no estaría impulsado por incentivos comerciales. Prometieron construir lo que se llama inteligencia artificial general, o AGI, una máquina que puede hacer cualquier cosa que el cerebro pueda hacer.

Altman transformó OpenAI en una empresa con fines de lucro en 2018 y negoció una inversión de mil millones de dólares con Microsoft. Sumas de dinero tan enormes son esenciales para desarrollar tecnologías como GPT-4, que se lanzó a principios de este año. Desde su inversión inicial, Microsoft ha invertido otros 12 mil millones de dólares en la empresa.

La empresa todavía estaba gobernada por la junta sin fines de lucro. Los inversores como Microsoft reciben beneficios de OpenAI, pero sus beneficios están limitados. Cualquier dinero que supere el límite se canaliza nuevamente a la organización sin fines de lucro.

Al ver el poder de GPT-4, Sutskever ayudó a crear un nuevo equipo de Super Alineación dentro de la empresa que exploraría formas de garantizar que las versiones futuras de la tecnología no causaran daño.

Altman estaba abierto a esas preocupaciones, pero también quería que OpenAI se mantuviera por delante de sus competidores mucho más grandes. A fines de septiembre, Altman voló a Medio Oriente para reunirse con inversionistas, según dos personas familiarizadas con el asunto. Buscó hasta mil millones de dólares en financiación de SoftBank, el inversor tecnológico japonés liderado por Masayoshi Son, para una posible empresa OpenAI que construiría un dispositivo de hardware para ejecutar tecnologías de IA como ChatGPT.

OpenAI también está en conversaciones para una financiación de “oferta pública” que permitiría a los empleados retirar acciones de la empresa. Ese acuerdo valoraría OpenAI en más de 80 mil millones de dólares, casi el triple de su valor hace unos seis meses.

Pero el éxito de la empresa parece haber aumentado la preocupación de que algo pueda salir mal con la IA.

«No parece del todo inverosímil que tengamos computadoras (centros de datos) que sean mucho más inteligentes que las personas», dijo Sutskever en una conferencia de prensa. podcast el 2 de noviembre. “¿Qué harían esas IA? «No sé.»

Kevin Roose y Tripp Mickle contribuyó con informes.