Un trabajador de seguridad de OpenAI ha dimitido después de afirmar haber perdido la confianza sobre si la compañía se comportará de manera responsable en el momento de lanzar una inteligencia artificial general (AGI por sus siglas en inglés), que presuntamente son capaces de superar, incluso, a los humanos en diferentes tareas.

Según detalla Business Insider, Daniel Kokotajlo, investigador de OpenAI y quien trabaja en el equipo ético de la compañía, dimitió el pasado mes de abril al perder la ilusión por el proyecto de creación de una IA general.

El investigador llegó a afirmar que pidió a la compañía una pausa en el desarrollo con el objetivo de analizar y gestionar el impacto que podría tener este tipo de modelos en la sociedad. De hecho, en una publicación en un foro, Kokotajlo detalló que cree “que la mayoría de las personas que presionan por una pausa están tratando de presionar contra una ‘pausa selectiva’ y por una pausa real que se aplicaría a los grandes laboratorios que están a la vanguardia del progreso”, y que esa ‘pausa selectiva’, terminarían no aplicándose a las grandes compañías, como OpenAI.

El motivo es obvio: las empresas de inteligencia artificial, así como las grandes compañías que también tienen la capacidad de desarrollar modelos de IA, están constantemente compitiendo entre sí para sacar nuevos productos de inteligencia artificial cuanto antes. Una pausa en OpenAI significaría un retraso en el desarrollo de una AGI frente a otras empresas.

OpenAI y su afán por desarrollar una IA general

ChatGPT, la app de IA generativa disponible en la Google Play Store

Curiosamente, el desarrollo de una inteligencia artificial general ha sido uno de los principales motivos del culebrón de OpenAI y el despido fallido de Sam Altman, CEO de la compañía, pues la junta directiva temía que el ejecutivo aprobara el lanzamiento de productos de IA muy poderosos sin evaluar antes las consecuencias.

En relación a esto, varios ejecutivos y expertos en inteligencia artificial, incluyendo Elon Musk, pidieron pausar el desarrollo y entrenamiento de nuevos modelos de IA hasta evaluar si ciertamente podrían tener un impacto negativo en la sociedad. El objetivo de la pausa, que debería tener una duración de seis meses, era crear una serie de protocolos de seguridad compartidos.

Por el momento, ninguna compañía ha presentado un modelo de IA general que amenace a la humanidad, aunque se sabe que OpenAI está trabajando en ello con una AGI bautizada internamente como Q* (Q-Star), que es capaz incluso de realizar operaciones matemáticas.