¿Por qué la IA general, o AGI, está generando preocupaciones en Google, OpenAI y Anthropic?
La IA estaría a punto de alcanzar su siguiente eslabón evolutivo: La IA General o AGI, un hito del que seguramente muchas personas creerán que las principales compañías tecnológicas están felices por ello. Sin embargo, la realidad dista mucho de ello, pues compañías «titanes» del sector tecnológico y vinculado directamente al desarrollo de la IA, como lo son: Google, OpenAI y Anthropic, han expresado grandes preocupaciones por este inminente paso evolutivo. ¿Por qué la IA general está encendiendo las alarmas de preocupación precisamente por parte de sus creadores? Indaguemos en profundidad sobre este preocupante tema.
Google: «La sociedad actual no está preparada para afrontar eficazmente la IA General»
Tras las recientes nuevas características que anunció Google para Gemini AI, el director ejecutivo de Google DeepMind Technologies, Demis Hassabis, aseguró que, con estas nuevas funcionalidades, se acelerará la llegada de la AGI. Recordemos que entre las nuevas capacidades anunciadas por la compañía, se incluye la funcionalidad de «pensamiento profundo», lo cual brinda a los modelos de Gemini AI, la capacidad para analizar con gran precisión, investigaciones complejas. Esto, entre otras funciones, significa que el modelo de IA de Gemini podrá descomponer y componer problemas complejos de forma crítica, de la misma manera como lo hace el cerebro humano.
Todo ello dejará defasados a los actuales chatbots y agentes de IA muy pronto, pues esta nueva evolución de la IA, le dará una capacidad cognitiva similar al cerebro humano, lo que impulsará la fabricación de robots humanoides. Sin embargo, estas capacidades cognitivas que tendrá muy pronto la IA no deja dormir a Hassabis, pues según el CEO de DeepMind, la sociedad actual no está preparada para afrontarla.
¿Por qué razón Hassabis asegura que la sociedad actual no está preparada para la IA general?
La razón fundamental que lleva a Hassabis a afirmar eso es que muchas personas aún no tienen un razonamiento equilibrado en cuanto a utilizar la IA. Actualmente, y de acuerdo con la percepción que tiene el CEO de Google DeepMind, las personas solo están viendo rentabilidad con la IA y no los problemas que se asocian con esta tecnología emergente, como lo es la seguridad y controlabilidad.
«La AGI está llegando en un momento crítico donde las personas e inversores solo creen ver rentabilidad, lo que nos está llevando a un panorama crudo y oscuro. Esta evolución va a llegar muy pronto y debemos reflexionar rápidamente sobre cómo vamos a controlar estos nuevos sistemas, garantizar la seguridad al acceder a ella y buscar un equilibrio para ganar todos.» Señaló Hassabis.
Anthropic: «Para el 2027, la IA será más inteligente que los humanos y ya ha comenzado a crear sus propios modelos»
Anthropic, otro de los «pesos pesados» en el desarrollo de tecnologías de IA, también ha expresado sus preocupaciones sobre la inminente llegada de la IA General, la cual hará que la inteligencia artificial, sea más inteligente que los humanos. De hecho, y según el CEO de esta compañía, Dario Amodei, aseguró que ya la IA está introduciendo cambios en sus propios modelos a tal punto de que ni los desarrolladores ni los científicos comprenden todo ese nuevo funcionamiento.
«Cuando comentamos esta situación, las personas suelen sorprenderse y alarmarse al enterarse de que ya nosotros no entendemos estos nuevos cambios que está introduciendo la IA en nuestros propios modelos. Y tienen toda la razón en estar preocupados, esta falta de comprensión supone enormes riesgos y no tiene precedentes en la historia de la tecnología.» Indicó Amodei.
La amenaza que se cierne al no comprender estos cambios
Al igual que el CEO de Google DeepMind, Amodei advierte de que hay que buscar rápidamente maneras de controlar estos sistemas antes de que se desate un escenario donde ya la IA se haga incontrolable. Con la controlabilidad, también se conseguiría la interpretabilidad de los cambios que introduzca la IA en los distintos modelos.
«La IA se está adoptando rápida y masivamente en puntos claves de la economía, la tecnología e inclusive, en la misma seguridad nacional, y con la llegada de la IA General serán capaces de tanta autonomía que considero básicamente inaceptable que la humanidad ignore totalmente cómo funcionan.»
No obstante, el CEO de Anthropic admite de que para lograr una controlabilidad se necesita mucho trabajo ante una IA que está evolucionando por sí misma.
OpenAI: «La empresa tiene más interés en la evolución de la IA que en la seguridad de la misma»
OpenAI frecuentemente se ve envuelto en problemas de seguridad y privacidad, pero sus principales directivos, Sam Altman y Greg Brockman, están más enfocados en que la IA alcance la AGI que en abordar una cultura responsable y de seguridad. De hecho, la compañía ha visto cómo una gran parte de su equipo fundador se ha marchado por la alineación que está teniendo la empresa.
Uno de ellos es Jan Leike. Recordemos que en su momento, al abandonar OpenAI, confesó que las prioridades de la compañía ya no eran las de abordar la seguridad, monitoreo, preparación, protección, robustez adversarial, (super)alineación, confidencialidad e impacto social al desarrollar sistemas más inteligentes que los humanos.
«Construir sistemas más inteligentes que los humanos es una tarea inherentemente peligrosa. Lamentablemente, OpenAI no está asumiendo la enorme responsabilidad en nombre de toda la humanidad al relegar a un segundo plano la cultura de la seguridad y control de procesos, priorizando productos de alto impacto». Indicó Leike.
Construir bunkers antes de la llegada de la IA General
Otro de los ex-directivos fundadores, quien fue en su momento jefe científico de la compañía, Ilya Sutskever, también advirtió sobre la llegada de la AGI y su capacidad de poder superar las capacidades cognitivas humanas. De hecho, Sutskever afirmó inclusive que OpenAI tiene planes de construir «búnkers del fin del mundo» antes del lanzamiento oficial de la AGI.
Si bien Sutskever dejó la compañía, en OpenAI hay muchos científicos y desarrolladores que comparten esos temores, pues el potencial que tendrá esta próxima evolución de la IA, puede sustituir completamente a los humanos. Por cierto, numerosos empleados claves de OpenAI también coinciden con la preocupación de Google sobre que la humanidad no está preparada para afrontar esta nueva tecnología.
Las preocupaciones recaen sobre todo en OpenAI
Muchos investigadores y analistas de seguridad independientes han asegurado que de las principales compañías que desarrollan sistemas de IA, OpenAI es la que más les preocupa. La razón se debe a que OpenAI, si bien es la que más está trabajando para alcanzar rápidamente la AGI, lo hace de forma irresponsable e incumpliendo con aspectos críticos de la seguridad y controlabilidad. Esta conducta, por cierto, es criticada por otro iconico fundador: Elon Musk, quien ya ha demandado a OpenAI por desviarse de su objetivo inicial.
Google, por su parte, ha tenido un bajo perfil en la competencia de los chatbots pero la presión de sus inversores estarían obligando a la compañía a acelerar la llegada de la IA General. Aun así, Google no ha ocultado su preocupación ante la inminente llegada de la AGI en una sociedad que no está preparada para ella.
En el caso de Anthropic, esta compañía ha enfocado sus productos más potentes en segmentos determinados que realmente ameritan sus soluciones. No obstante, es muy probable que también se estén viendo obligados a acelerar la AGI por parte de inversores y ello esté provocando los desafíos anteriormente descritos.