OpenAI está cerrando una semana con varias novedades, aunque no todas han sido gratas. Tras el anuncio de GPT-4o, la compañía sufrió el alejamiento de Ilya Sutskever, exjefe científico de la startup, y de otros investigadores clave.
Este viernes se oficializó la salida de Jan Leike, quien lideraba el equipo de OpenAI que analizaba los riesgos a largo plazo de la IA. La noticia se conoció a través de un extenso hilo publicado por el susodicho en X (Twitter), poco después de que Wired reportara que el citado equipo de seguridad había sido desmantelado.
El grupo en cuestión, conocido como «equipo de superalineación», estaba bajo la conducción de Leike desde su conformación en julio de 2023. Sin embargo, el experto llevaba unos tres años como parte de OpenAI. En el anuncio de su dimisión, el investigador expuso sus diferencias con la directiva de la startup liderada por Sam Altman. Argumentó que la compañía ha optado por un rumbo priorizando el lanzamiento de nuevos productos, en detrimento de la seguridad.
«Me uní porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación. Sin embargo, he estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de quiebre», indicó Leike; y agregó: «Creo que se debería destinar mucho más de nuestro ancho de banda en prepararnos para las próximas generaciones de modelos en materia de seguridad, monitoreo, preparación, protección, solidez adversarial, (super)alineación, confidencialidad, impacto social y temas relacionados. Es bastante difícil solucionar estos problemas y me preocupa que no estemos en el camino correcto para llegar allí».
- CHECALO -
Pero Leike no se detuvo allí. El investigador dijo que su equipo se vio obligado a navegar contra la corriente en los últimos meses, padeciendo incluso la escasez del poder de cómputo necesario para llevar a cabo sus investigaciones. Y lanzó un dardo contra Sam Altman y compañía: «En los últimos años, la cultura y los procesos de seguridad han quedado en segundo plano frente a los productos brillantes».
OpenAI pierde a una figura clave de su equipo de seguridad
Jan Leike no es el primer investigador que abandona OpenAI en el último tiempo en desacuerdo con el rumbo de la startup. Ayer se conoció que Daniel Kokotajlo, un experto que formaba parte del equipo de ética de la empresa, dimitió en abril tras perder la confianza en la compañía. El susodicho explicó que había solicitado que la directiva pausara el desarrollo de una inteligencia artificial general (AGI) para estudiar el impacto social que podría tener la tecnología. Sin embargo, se ignoró ese pedido debido a la fuerte competencia existente en el sector.
En su despedida, Leike también remarcó la necesidad de que OpenAI ponga la seguridad en el centro de la escena al trabajar en la AGI. «Hace tiempo que deberíamos tomarnos increíblemente en serio las implicaciones de la inteligencia artificial general. Debemos priorizar prepararnos para ella lo mejor que podamos. Solo entonces podremos garantizar que la AGI beneficie a toda la humanidad. OpenAI debe convertirse en una empresa de inteligencia artificial general que priorice la seguridad», publicó.
Sam Altman, líder de la compañía, no hizo oídos sordos a las palabras del investigador. A través de X (Twitter), el ejecutivo lamentó el alejamiento de Leike y prometió profundizar en su reclamo en los próximos días. «Tiene razón en que tenemos mucho por hacer y estamos comprometidos a hacerlo», indicó.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://hipertextual.com/2024/05/openai-renuncia-jan-leike-seguridad