Ilya Sutskever, ex jefe científico de OpenAI, ha lanzado su nueva startup de inteligencia artificial llamada Safe Superintelligence (SSI), y ha conseguido recaudar más de mil millones de dólares en capital inicial. Este financiamiento proviene de destacados inversores como NFDG, a16z, Sequoia, DST Global y SV Angel, lo que refleja el enorme interés en las soluciones que SSI pretende ofrecer en el campo de la seguridad en inteligencia artificial.
Safe Superintelligence es una empresa emergente que se enfoca en la investigación y el desarrollo de tecnologías que garanticen la seguridad en la inteligencia artificial avanzada. Si bien la startup aún no ha revelado detalles específicos sobre sus proyectos o productos, su misión es clara: crear IA que sea segura, controlable y que beneficie a la humanidad a largo plazo. Este enfoque en la seguridad en IA coloca a SSI en el centro de uno de los debates más importantes en la tecnología actual.
Con la reciente ronda de financiación, SSI ha alcanzado una valoración impresionante de 5 mil millones de dólares. Según fuentes cercanas a la empresa, el dinero recaudado se destinará principalmente a la adquisición de poder computacional y a la contratación de investigadores. El equipo de SSI estará dividido entre Palo Alto, en Estados Unidos, y Tel Aviv, en Israel, lo que subraya la importancia de atraer talento global para avanzar en sus objetivos.
El respaldo financiero de SSI proviene de algunos de los nombres más importantes del capital de riesgo. Nat Friedman, ex CEO de GitHub y cofundador de NFDG, es uno de los principales inversores y ocupa el puesto de CEO en Safe Superintelligence. Además, el apoyo de gigantes como Sequoia y a16z destaca la confianza en que la startup de Sutskever puede liderar el desarrollo de IA segura en una escala que marque la diferencia.
La creación de SSI es el siguiente paso en la carrera de Sutskever, quien anteriormente lideró el equipo de Superalignment en OpenAI. Este equipo, ahora desmantelado, se enfocaba en investigaciones clave sobre la seguridad en inteligencia artificial general. Tras un conflicto público con Sam Altman, CEO de OpenAI, y varios miembros de la junta directiva, Sutskever decidió abandonar la organización y centrarse en su nuevo proyecto.
El propio Sutskever describió su salida de OpenAI como el resultado de un “colapso en la comunicación” con Altman y otros líderes de la compañía. Este incidente dejó en claro que las visiones divergentes sobre la seguridad en IA pueden llevar a tensiones en las organizaciones más influyentes del mundo de la tecnología.
También te puede interesar:Microsoft lanza herramienta para corregir alucinaciones de IA, pero los expertos piden cautelaSi bien Safe Superintelligence aún no ha revelado los detalles de sus investigaciones, está claro que su enfoque en la seguridad en IA atraerá la atención de la industria tecnológica y de los reguladores. En un momento en que la inteligencia artificial está transformando todos los sectores, desde la salud hasta las finanzas, garantizar que esta tecnología sea segura es un tema crítico.
Con el respaldo financiero y la dirección de Sutskever, SSI se encuentra en una posición privilegiada para desarrollar soluciones innovadoras y seguras que aborden los riesgos potenciales de la inteligencia artificial. Además, la startup promete ser un actor clave en los esfuerzos globales para asegurar que las superinteligencias artificiales sean una fuerza positiva para la humanidad.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.