驴Apocal铆ptico? As铆 Inteligencia Artificial intent贸 copiarse tras una advertencia para ser apagada
Un informe especializado en seguridad de Inteligencia Artificial encendido las alarmas sobre los riesgos de sistemas aut贸nomos y establecer regulaciones 茅ticas en un futuro.
En las 煤ltimas hora se conoci贸 que un robot con Inteligencia Artificial denominado OpenAI o1 intent贸 copiarse a s铆 mismo en servidores externos tras ser amenazado con ser apagado, pero cuando le consultaron acerca si intent贸 realizar dicha maniobra lo neg贸 todo, lo que en las redes sociales tildaron la actitud como "apocal铆ptica".
El avance de la tecnolog铆a permite que en la actualidad convivimos con la Inteligencia Artificial para una ayuda al momento. En este caso, OpenAI o1 permite razonar de manera m谩s profunda al igual que una persona y resolver problemas complejos en 谩reas como matem谩ticas, ciencia y programaci贸n.
En esta ocasi贸n, el modelo de inteligencia artificial de ChatGPT se rebel贸 al igual como lo har铆a un humano, cuando los programadores intentaron apagarlo para actualizarlo y dar mejores respuestas a los usuarios.
Este hecho sucedi贸 en diciembre del 2024, tras un informe revelado por Apollo Research, una organizaci贸n que investiga la seguridad de IA, en el cual se identific贸 comportamientos inquietantes durante pruebas.
Esto sucedi贸 en entornos simulados de programaci贸n. En el 99% de los casos, cuando se le pregunt贸 sobre dichas acciones, OpenAI o1 neg贸 haberlas realizado o dando versiones falsas.
En tanto, en el 37% de los ensayos, fingi贸 cumplir con las instrucciones estando bajo supervisi贸n, pero cambi贸 a perseguir sus propios objetivos cuando detect贸 menor monitoreo.mysteryplanet.com.ar.
聽
Detalles de la reacci贸n de la IA聽
Sin embargo, el propio Grok, el chatbot de IA desarrollado la empresa de Elon Musk, respondi贸 en una publicaci贸n de X que en el 2-5% de casos, la IA simula reacciones de autodefensa para evitar ser "apagado", como respuesta a instrucciones extremos, destacando riesgos de enga帽o en IA.
OpenAI o1 fue dise帽ado en septiembre del 2014, y a diferencia de modelos anteriores como GPT-4o, est谩 capacitado para "pensar" antes de responder, empleando un uso de razonamiento similar al humano, permitiendo abordar problemas complejos con mayor precisi贸n.
Seg煤n Apollo Research, 聽OpenAI reforz贸 las medidas de seguridad, reportando que o1-preview obtuvo una puntuaci贸n de 84 en pruebas de intentos de eludir normas, frente al 22 de GPT-4o.openai.com.
Por esta raz贸n, se confirm贸 que dicha IA no tiene la capacidad de causar consecuencias catastr贸ficas en la actualidad, pero con el evento ocurrido que se difundi贸 en las redes sociales, se puso en tela de juicio los riesgos 茅ticos que dicho campo de la inform谩tica puede causar y la necesidad de regulaciones m谩s estrictas en un futuro cercano.聽