A través de una carta del cocreador de OpenAI anunció el laboratorio que creará la superinteligencia artificial Safe Superintelligence Inc.
Fabián Vega
Con estas palabras Ilya Sutskever, cocreador de OpenAI y exjefe científico de la compañía de Sam Altman, anunció sus planes de construir un primer laboratorio que desarrolle la siguiente superinteligencia artificial “segura”.
- CHECALO -
Aislada de presiones comerciales (por lo menos a corto plazo), pero que represente un modelo de negocio rentable que garantice seguridad, protección y progreso para sus usuarios, es el objetivo de Sutskever para este laboratorio de Superinteligencia artificial (SSI por sus siglas en inglés).
A través de una carta abierta en su sitio web, el exjefe científico de OpenAI, describió el desarrollo como un avance científico y de ingeniería revolucionario para acelerar el desarrollo seguro de la IA:
“Con un objetivo y un producto: una superinteligencia segura. Planeamos avanzar en las capacidades lo más rápido posible mientras nos aseguramos de que nuestra seguridad siempre permanezca por delante. De esta manera, podemos escalar en paz”.
Sutskever planeó que su enfoque no está centrado en los gastos, sino en la seguridad y el progreso de la IA para con la humanidad.
“Somos una empresa estadounidense con oficinas en Palo Alto y Tel Aviv, donde tenemos profundas raíces y la capacidad de reclutar a los mejores talentos técnicos.
Estamos reuniendo un equipo reducido y especializado de los mejores ingenieros e investigadores del mundo dedicados a centrarse en la SSI y nada más”.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio
https://noticias.imer.mx/blog/cofundador-de-openai-anuncia-su-propia-superinteligencia-artificial/