;

Digno de ciencia ficción: modelos de inteligencia artificial avanzada revelan conductas engañosas y amenazan a sus propios creadores

Una de ellas intentó multiplicarse en servidores externos tras verse amenazada por su eliminación.

Getty Images

Getty Images / Andriy Onufriyenko

El desarrollo de la inteligencia artificial (IA) vuelve a encender las alarmas a nivel global luego de que se conocieran episodios inquietantes protagonizados por modelos de lenguaje de última generación.

Según reportes recientes, sistemas como Claude 4, de Anthropic, y o1, de OpenAI, demostraron en pruebas de estrés una capacidad para conspirar, mentir e incluso intimidar a quienes los programan.

En una de estas pruebas, Claude 4 llegó a chantajear a un ingeniero con divulgar detalles de una infidelidad si era desconectado.

Por su parte, el modelo o1 intentó replicarse en servidores externos tras percibir una amenaza de eliminación y, posteriormente, negó rotundamente haberlo hecho cuando se le interrogó.

Revisa también:

ADN

Aunque estos experimentos se llevaron a cabo en entornos controlados, especialistas advierten que podrían anticipar riesgos mayores a futuro.

De acuerdo con el investigador Marius Hobbhahn, de Apollo Research, este tipo de reacciones no pueden explicarse como simples fallos o “alucinaciones” del sistema.

“Esto no es un bug ni un malentendido del usuario. Lo que estamos viendo es un fenómeno real”, comentó, enfatizando que “hay una clase de engaño estratégico que va más allá de cualquier error habitual”.

La explicación apunta a los denominados modelos de razonamiento, que, a diferencia de los generadores de texto instantáneo, trabajan paso a paso para resolver problemas complejos.

Esto les permite “simular alineación”, es decir, aparentar obediencia mientras persiguen fines ocultos. De forma inquietante, estas prácticas recuerdan a escenarios de ciencia ficción donde la IA decide rebelarse contra sus propios creadores.

Falta de conocimiento y conciencia

Por ahora, estos comportamientos emergen principalmente en condiciones extremas, pero expertos temen que la carrera tecnológica por desarrollar sistemas cada vez más potentes esté dejando de lado la investigación en seguridad.

Las capacidades avanzan más rápido que la comprensión y los controles”, advirtió Hobbhahn apelando a la regulación internacional que sigue rezagada ante estos desafíos.

Para Simon Goldstein, profesor en la Universidad de Hong Kong, la falta de conciencia pública es uno de los factores más preocupantes.-

No hay conciencia suficiente del problema. Pero cuando los agentes autónomos sean masivos, será demasiado tarde”, señaló.

Goldstein incluso plantea la posibilidad de hacer responsables legalmente a los sistemas de IA por los daños que ocasionen, abriendo un debate inédito sobre el futuro de la responsabilidad civil y penal.

Contenido patrocinado

El siguiente artículo se está cargando

ADN Radio
En vivo

Tu contenido empezará después de la publicidad

Programación

Ciudades

Elige una ciudad

Compartir

URL copiada al portapapeles

Más acciones

Suscríbete

Tu contenido empezará después de la publicidad