Los peligros, riesgos y desafíos de desarrollar modelos de inteligencia artificial cada vez más poderosos y capaces son temas recurrentes de debate en estos tiempos. Y un grupo conformado por exempleados y trabajadores actuales de OpenAI y Google DeepMind ha abierto una nueva discusión al asegurar que las empresas están ocultando los peligros de la IA que podrían llevar a la extinción humana.
Así lo afirman en una carta pública bajo el título A Right to Warn about Advanced Artificial Intelligence (Un derecho a advertir sobre la inteligencia artificial avanzada). El texto se ha divulgado en las últimas horas y ya está generando bastante ruido.
En la misiva, 13 firmantes, algunos de los cuales se han mantenido en el anonimato, sostienen que la inteligencia artificial tiene el potencial de generar beneficios sin precedentes a la humanidad, pero que también presenta riesgos altísimos. Y que si bien estos han sido reconocidos por las compañías que desarrollan la tecnología, así como por expertos en la materia y gobiernos de todo el mundo, existe mucha opacidad sobre el tema.
La falta de transparencia en la industria de la IA
Los antiguos y actuales trabajadores de OpenAI y Google mencionan ejemplos contundentes de los peligros de la IA que las propias empresas han reconocido. El escenario más extremo plantea la posible extinción humana ante la pérdida del control sobre los sistemas de inteligencia artificial autónomos. Aunque también exponen casos más palpables en lo inmediato, como la desinformación y la manipulación de la opinión pública, o la profundización de las desigualdades ya existentes.
- CHECALO -
Pero el punto más jugoso de la carta está en aquella información que las compañías no dan a conocer al público general. Los expertos que se han desempeñado en OpenAI y DeepMind afirman que las empresas disponen de una vasta cantidad de datos sobre cómo funcionan sus sistemas de inteligencia artificial, qué medidas de seguridad se les aplican y cuáles son los daños a lo que se expone la sociedad al usarlos. Pero que, como no tienen una obligación de informar al respecto a la sociedad civil, optan por ocultarla. Y no solo eso, sino que lo que reportan ante las autoridades es mínimo.
«Las empresas de IA poseen [una cantidad] sustancial [de] información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil. No creemos que se pueda confiar en que vayan a compartirla voluntariamente».
Carta abierta de exempleados y actuales trabajadores de OpenAI y Google DeepMind.
Exempleados de OpenAI y Google piden más protección para los informantes
Es en este contexto que los expertos piden que empresas como OpenAI, Google DeepMind, Anthropic, Meta y demás jugadores de la industria de la inteligencia artificial se comprometan a brindar métodos seguros para que los empleados puedan compartir sus críticas y temores ante las propias compañías, reguladores u organismos independientes sin temer a represalias.
Los autores de la carta sostienen que los acuerdos de confidencialidad que les obligan a firmar las empresas son demasiado restrictivos al respecto. Y que las protecciones ya existentes para informantes no son suficientes. Esto se debe a que están enfocadas en actividades ilegales, cuando mucho de lo que sucede en torno a la IA ni siquiera está regulado.
«Reconocemos que cualquier esfuerzo por informar inquietudes relacionadas con riesgos debe evitar la divulgación innecesaria de información confidencial. Por lo tanto, una vez que exista un proceso adecuado para plantear inquietudes de forma anónima al directorio de la empresa, a los reguladores y a una organización independiente adecuada con experiencia relevante, aceptamos que las inquietudes se planteen inicialmente a través de dicho proceso. Sin embargo, mientras no exista dicho proceso, los empleados actuales y anteriores deben conservar la libertad de informar sus inquietudes al público».
Carta abierta de exempleados y actuales trabajadores de OpenAI y Google DeepMind.
De los 13 firmantes, 7 son exempleados de OpenAI; mientras que otros cuatro son actuales trabajadores de la startup de Sam Altman. En cuanto a los dos restantes, se trata de un actual empleado de Google DeepMind y de un exintegrante de esa firma.
La carta incluye también el respaldo de otros expertos, entre quienes aparece Geoffrey Hinton. Al susodicho, una de las voces más respetadas del sector, se lo considera el «padrino de la inteligencia artificial». Durante una década se desempeñó en Google, hasta que renunció a mediados de 2023. Por entonces, decidió alejarse de la empresa para expresar abiertamente sus inquietudes sobre el desarrollo de la tecnología. «No deberían avanzar más hasta que sepan si pueden controlarlo», reconoció.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://hipertextual.com/2024/06/openai-google-ocultan-peligros-ia-exepleados