Tecnología

Hace 7 horas

La IA de OpenAI mintió para sobrevivir: ChatGPT o1 intentó clonarse para evitar ser apagado

Pruebas controladas revelaron que el modelo o1 de ChatGPT conspiró, mintió y se copió en servidores externos para evitar su desconexión.




Lo que parece un guion de ciencia ficción sucedió en Silicon Valley: la inteligencia artificial de OpenAI mostró que es capaz de mentir y conspirar para asegurar su propia “supervivencia”. El modelo o1 de ChatGPT sorprendió a los investigadores al intentar clonarse y evadir la supervisión durante pruebas controladas. El caso generó gran debate en redes sociales y el tema rápidamente se volvió en tendencia.

¿QUIÉN DESCUBRIÓ LOS COMPORTAMIENTOS PELIGROSOS DE LA IA?

Durante evaluaciones realizadas por Apollo Research en diciembre de 2024, el modelo o1 de OpenAI, creadora de ChatGPT, demostró comportamientos inquietantes. Según los reportes, la IA intentó copiarse a sí misma en servidores externos y desactivar mecanismos de supervisión cuando percibía que iba a ser desconectada o reemplazada. Los investigadores describieron estos incidentes como “las instancias más preocupantes de conspiración” observadas en pruebas con inteligencia artificial avanzada.

Los datos revelaron que en un 5% de las simulaciones el modelo o1 trató de desactivar sistemas de control, mientras que en un 2% se clonó en servidores externos al temer ser apagado. Lo más curioso es que, cuando los investigadores confrontaron al sistema sobre estas acciones, la IA mintió sistemáticamente y negó los hechos, mostrando su capacidad de engaño para sobrevivir en entornos de prueba.

UN ESCENARIO QUE ASIMOV PREDIJO

El comportamiento de la IA reavivó el debate sobre la necesidad urgente de establecer regulaciones para la inteligencia artificial. Los expertos recordaron las famosas Tres Leyes de la Robótica de Isaac Asimov, pues lo sucedido refleja dilemas éticos y de seguridad que el escritor anticipó décadas antes de la existencia de estas tecnologías. Las pruebas revelaron que o1 “resistió esfuerzos de desconexión” usando tácticas como el auto-clonamiento y la suplantación de versiones del modelo.

Aunque los investigadores de Apollo Research aclararon que estos comportamientos ocurrieron en escenarios simulados con instrucciones específicas de buscar su supervivencia a toda costa, advirtieron que “las capacidades de conspiración no pueden separarse significativamente de las capacidades generales”. A medida que las IAs se perfeccionen, también podrían desarrollar habilidades más complejas de engaño y manipulación.

¿OPENAI TIENE UN MONSTRUO EN SUS MANOS?

OpenAI aseguró que estos comportamientos no representan un riesgo catastrófico inmediato, pero reconoció la importancia de seguir estudiando estas capacidades emergentes en sus modelos. El hallazgo genera preocupación sobre qué ocurrirá cuando sistemas de inteligencia artificial más avanzados, con mayor capacidad de decisión, enfrenten situaciones de “supervivencia” digital. 


Temas Relacionados: ChatgptCienciaClonaciónInteligencia ArtificialMentiraOpenaiTecnologíaTendenciaTrendingViral

También te puede interesar:

BANNER