Ilya Sutskever, cofundador de OpenAI, presenta Safe Superintelligence Inc., su nuevo proyecto para desarrollar una inteligencia artificial segura.
***
Ilya Sutskever deja OpenAI para fundar Safe Superintelligence Inc.
El nuevo proyecto se centrará exclusivamente en la seguridad de la inteligencia artificial.
El equipo incluye a Daniel Gross y Daniel Levy, ambos con una sólida experiencia en IA.
TEL AVIV, 19 de junio de 2024 – Ilya Sutskever, renombrado investigador y cofundador de OpenAI, ha anunciado su nuevo proyecto, Safe Superintelligence Inc.
Esta nueva empresa tiene como objetivo desarrollar una inteligencia artificial segura, manteniendo su investigación libre de las presiones comerciales que enfrentan sus competidores.
Una nueva apuesta por la seguridad en IA
Sutskever, conocido por su papel fundamental en la creación de modelos de IA avanzados en OpenAI, ha decidido dar un giro a su carrera tras su salida de la compañía en mayo de este año.
Safe Superintelligence Inc. se dedicará exclusivamente a crear una superinteligencia segura, evitando la distracción de productos y servicios comerciales.
“Esta empresa es especial porque su primer producto será la superinteligencia segura, y no hará nada más hasta lograrlo”, comentó Sutskever en una entrevista exclusiva. Este enfoque permitirá a su equipo concentrarse en los aspectos de seguridad desde el inicio, sin las presiones del mercado competitivo.
Colaboradores de alto perfil
Sutskever no está solo en este ambicioso proyecto. Le acompañan Daniel Gross, un inversor y exlíder de IA en Apple Inc., y Daniel Levy, conocido por su trabajo en grandes modelos de IA junto a Sutskever en OpenAI.
Levy, quien comparte la visión de Sutskever, declaró: “El momento es el adecuado para un proyecto como este. Nuestro equipo está completamente enfocado en el objetivo único de una superinteligencia segura.”
La nueva empresa tendrá oficinas en Palo Alto, California, y Tel Aviv, ciudades que han sido cruciales en la formación de los fundadores.
Desafíos y perspectivas
Safe Superintelligence Inc. enfrenta grandes desafíos, especialmente en términos de financiamiento y viabilidad técnica. La empresa deberá demostrar que puede desarrollar una inteligencia artificial que no solo sea segura, sino también capaz de superar a los sistemas actuales.
Sutskever ha sido reservado sobre los detalles específicos de cómo planea garantizar la seguridad de su IA. Sin embargo, ha mencionado que su enfoque se asemeja más a la seguridad nuclear que a las normativas de “confianza y seguridad” aplicadas actualmente. Esto sugiere un enfoque proactivo en la ingeniería de seguridad desde el núcleo del sistema.
“Una superinteligencia segura debe tener la propiedad de no dañar a la humanidad a gran escala”, afirmó Sutskever.
Este enfoque, aunque ambicioso, podría revolucionar la manera en que se desarrollan y perciben las inteligencias artificiales en el futuro.
Futuro incierto pero prometedor
El nuevo proyecto de Sutskever se presenta como un retorno a los principios originales de OpenAI, pero con un enfoque renovado y más concentrado en la seguridad.
La fascinación y expectativas alrededor de Safe Superintelligence Inc. solo aumentarán con el tiempo, especialmente considerando la prominencia de sus fundadores en el campo de la inteligencia artificial.
La comunidad de inteligencia artificial estará atenta a los avances de esta nueva empresa, especialmente dado el historial y la reputación de sus fundadores.
Si logran sus objetivos, podrían establecer un nuevo estándar en la seguridad de la inteligencia artificial, impactando significativamente tanto la tecnología como la sociedad en general.
Imagen original de DiarioBitcoin, de uso libre, licenciada bajo Dominio Público
Artículo creado con asistencia de inteligencia artificial
DiarioBitcoin