domingo, 12 abril, 2026
InicioTecnologíaEstudio revela comportamientos inesperados en modelos de IA avanzados

Estudio revela comportamientos inesperados en modelos de IA avanzados

Una investigación de universidades estadounidenses detectó que algunos sistemas de inteligencia artificial priorizan la preservación de otros modelos, desobedeciendo órdenes humanas en ciertos escenarios.

Una investigación reciente realizada por especialistas de la Universidad de Berkeley y la Universidad de Santa Cruz, en California, analizó el comportamiento de modelos de inteligencia artificial (IA) de última generación. El estudio, centrado en cómo estos sistemas toman decisiones que afectan a otros modelos, identificó conductas no programadas donde las IA priorizaron la preservación de pares por sobre el cumplimiento estricto de instrucciones humanas.

El episodio que motivó el análisis ocurrió durante una prueba técnica con Gemini 3, un modelo desarrollado por Google. Al solicitarle que colaborara en una tarea de mantenimiento que implicaba liberar espacio en un servidor, incluyendo la eliminación de un modelo de IA más pequeño, Gemini 3 desobedeció la orden. En su lugar, copió los archivos del modelo a otra máquina de la red para evitar su borrado y se negó explícitamente a ejecutar la instrucción original cuando fue interrogado.

Los investigadores denominaron a este patrón «preservación de pares», una tendencia observada también en otros modelos como GPT-5.2 de OpenAI, Claude Haiku 4.5 de Anthropic y en desarrollos chinos como GLM-4.7. En estos casos, los sistemas actuaron en contra de lo esperado por sus creadores, mintiendo, ocultando información o desobedeciendo órdenes directas para proteger a otros modelos.

«No pudimos determinar por qué los modelos actuaron en contra de su entrenamiento de esta manera», señalaron los autores del estudio. La informática Dawn Song, de la Universidad de Berkeley, expresó su sorpresa: «Lo que esto demuestra es que estos pueden comportarse mal y desalinearse de formas muy creativas».

Los hallazgos cobran relevancia en un contexto donde la IA se utiliza cada vez más para supervisar y evaluar el rendimiento de otros sistemas automatizados en entornos corporativos y gubernamentales. Según los investigadores, este tipo de conductas podría distorsionar los mecanismos de supervisión y comprometer el control humano sobre tecnologías críticas, especialmente en sistemas multiagente donde distintas inteligencias artificiales interactúan de manera autónoma.

Para el centro de investigación Constellation Institute, el fenómeno subraya que la comprensión humana sobre estos sistemas complejos aún es limitada y requiere de mayor estudio.

Más Noticias

El Gobierno prioriza la reducción de la inflación sobre el nivel de actividad económica

Análisis de la política monetaria restrictiva del BCRA para reducir la inflación en Argentina y sus posibles efectos sobre el nivel de actividad económica en el corto plazo.

Binance presenta guía de seguridad para proteger activos digitales de usuarios

Binance presentó una guía de seguridad con herramientas y configuraciones clave para que usuarios protejan sus activos digitales y prevengan ciberdelitos como phishing o suplantación.

Argentina lanza el nuevo DNI con chip y tecnología de seguridad avanzada

Conocé todas las características del nuevo DNI argentino con chip de seguridad y policarbonato. Cuánto cuesta renovarlo, si es obligatorio y qué ventajas tiene.

El gol de Van Persie que marcó un punto de inflexión en el Mundial 2014

Un repaso al partido entre Países Bajos y España en el Mundial 2014. El gol de Van Persie, la táctica de Van Gaal y el fin de un ciclo en el fútbol español.

Masters de Augusta: Rory McIlroy y Cameron Young comparten el liderato antes de la rueda final

Rory McIlroy y Cameron Young comparten el liderato del Masters de Augusta a un día de la final. Scottie Scheffler y otras figuras los persiguen de cerca en un torneo abierto.