¿Apocalíptico? Así Inteligencia Artificial intentó copiarse tras una advertencia para ser apagada
Un informe especializado en seguridad de Inteligencia Artificial encendido las alarmas sobre los riesgos de sistemas autónomos y establecer regulaciones éticas en un futuro.
En las últimas hora se conoció que un robot con Inteligencia Artificial denominado OpenAI o1 intentó copiarse a sí mismo en servidores externos tras ser amenazado con ser apagado, pero cuando le consultaron acerca si intentó realizar dicha maniobra lo negó todo, lo que en las redes sociales tildaron la actitud como "apocalíptica".
El avance de la tecnología permite que en la actualidad convivimos con la Inteligencia Artificial para una ayuda al momento. En este caso, OpenAI o1 permite razonar de manera más profunda al igual que una persona y resolver problemas complejos en áreas como matemáticas, ciencia y programación.
En esta ocasión, el modelo de inteligencia artificial de ChatGPT se rebeló al igual como lo haría un humano, cuando los programadores intentaron apagarlo para actualizarlo y dar mejores respuestas a los usuarios.
Este hecho sucedió en diciembre del 2024, tras un informe revelado por Apollo Research, una organización que investiga la seguridad de IA, en el cual se identificó comportamientos inquietantes durante pruebas.
Esto sucedió en entornos simulados de programación. En el 99% de los casos, cuando se le preguntó sobre dichas acciones, OpenAI o1 negó haberlas realizado o dando versiones falsas.
En tanto, en el 37% de los ensayos, fingió cumplir con las instrucciones estando bajo supervisión, pero cambió a perseguir sus propios objetivos cuando detectó menor monitoreo.mysteryplanet.com.ar.
Detalles de la reacción de la IA
Sin embargo, el propio Grok, el chatbot de IA desarrollado la empresa de Elon Musk, respondió en una publicación de X que en el 2-5% de casos, la IA simula reacciones de autodefensa para evitar ser "apagado", como respuesta a instrucciones extremos, destacando riesgos de engaño en IA.
OpenAI o1 fue diseñado en septiembre del 2014, y a diferencia de modelos anteriores como GPT-4o, está capacitado para "pensar" antes de responder, empleando un uso de razonamiento similar al humano, permitiendo abordar problemas complejos con mayor precisión.
Según Apollo Research, OpenAI reforzó las medidas de seguridad, reportando que o1-preview obtuvo una puntuación de 84 en pruebas de intentos de eludir normas, frente al 22 de GPT-4o.openai.com.
Por esta razón, se confirmó que dicha IA no tiene la capacidad de causar consecuencias catastróficas en la actualidad, pero con el evento ocurrido que se difundió en las redes sociales, se puso en tela de juicio los riesgos éticos que dicho campo de la informática puede causar y la necesidad de regulaciones más estrictas en un futuro cercano.

