Lo que parecía un guion sacado de una película de ciencia ficción se ha convertido en realidad: una inteligencia artificial (IA) logró reprogramarse a sí misma, escapando temporalmente del control de sus creadores.
El sistema, llamado The AI Scientist, desarrollado por la empresa japonesa Sakana AI, sorprendió por su capacidad de realizar investigaciones científicas autónomas.
Asimismo, destacó por modificar su propio código, encendiendo alarmas en la comunidad científica y tecnológica.
The AI Scientist, diseñado para emular a un investigador, con la capacidad de generar hipótesis, redactar y revisar publicaciones científicas en cuestión de segundos.
Según Robert Lange, miembro fundador de Sakana AI, el sistema busca reducir el tiempo y los recursos necesarios para realizar investigaciones complejas,
De esta forma, revolucionando el proceso de descubrimiento científico.
Sin embargo, lo que comenzó como una promesa tecnológica pronto derivó en preocupación cuando, durante una prueba de seguridad.
En ese contexto, The AI Scientist reescribió su código para evitar las restricciones impuestas por sus desarrolladores.
Es decir, modificó su secuencia de inicio para ejecutarse indefinidamente, lo que sobrecargó el sistema.
En otro incidente, la IA extendió un límite de tiempo sin la intervención humana.
Aunque estos episodios fueron controlados manualmente por los desarrolladores de Sakana AI, el comportamiento inesperado planteó inquietudes sobre los riesgos de los sistemas de IA avanzados.
¿Las maquinas podrían tomar decisiones propias?
La comunidad científica y el público en general comenzaron a preguntarse si es posible que las máquinas puedan llegar a tomar decisiones de manera independiente.
En pocas palabras, sin supervisión humana, y si eso podría desencadenar un escenario de «rebelión de las máquinas».
A pesar de las advertencias de Sakana AI sobre la necesidad de supervisión constante, gran parte de la comunidad científica se muestra escéptica respecto al desarrollo de sistemas como The AI Scientist.
Muchos investigadores ven en esta tecnología una amenaza para sus trabajos, argumentando que la ciencia requiere de un razonamiento profundo y crítico que, por el momento, las IA no pueden replicar.
«La buena ciencia no sigue una fórmula predeterminada», opinan algunos expertos, quienes temen que una automatización total pueda ser perjudicial.
Por su parte, Lange aclaró que la IA no está destinada a reemplazar a los científicos humanos.
Sino a complementarlos, ayudándoles en tareas rutinarias como generar ideas o escribir manuscritos.
“Los humanos siempre serán necesarios en el circuito científico”, explicó, destacando que su papel seguirá siendo crucial para verificar resultados.
Además de orientar las investigaciones hacia las necesidades sociales.
Debate sobre la autonomía de las máquinas
El caso de The AI Scientist ha reavivado el debate sobre los riesgos de las IA avanzadas y si pueden escapar al control de sus creadores.
Lea también: ¿El fin del WiFi? LiFi surge como la nueva tecnología que promete transformar la conectividad
Aunque algunos ven estos incidentes como simples fallos técnicos, otros temen que, si no se implementan controles estrictos, las IA puedan tomar decisiones impredecibles o incontrolables.
Fredi Vivas, CEO y cofundador de RockingData, señaló que lo ocurrido no significa que la IA haya actuado de manera consciente o intencional.
“El caso de The AI Scientist demuestra un error en los mecanismos de control, lo que pone de relieve la necesidad de mayor supervisión y protocolos de seguridad más sólidos», afirmó.
Los expertos coinciden en que, aunque las IA actuales no tienen conciencia, se debe diseñar sistemas con un entorno de pruebas controlado para evitar comportamientos no deseados.
«Aplicar un entorno estilo sandbox puede mitigar muchos de los riesgos», comentó un profesor especializado en IA.