El doble filo de la Inteligencia Artificial: de la herramienta beneficiosa a la amenaza potencial
La IA simplifica muchas tareas cotidianas, pero esconde un peligro detrás por los malos usos, como estafas hasta fotografías trucadas.
¿Un beneficio o una amenaza latente y potencial? La Inteligencia Artificial (IA), todavía naciente y desconocida para muchos, resulta un campo a seguir explorando con posibilidades y facilidades que en principio la presentan como una herramienta beneficiosa y atractiva de aprovechar. Sin embargo, esa multiplicidad de opciones también la tornan peligrosa y preocupante, para fines delictivos, muy graves e incluso porque puede profundizar el desempleo.
"La inteligencia artificial es tecnología que permite a las máquinas hacer cosas que hasta hace poco solo podían hacer los humanos: entender textos, reconocer imágenes, tomar decisiones, mantener conversaciones", conceptualizó la abogada, Betania Allo. La también especialista en Inteligencia Artificial y ciberseguridad destacó que este instrumento "dejó de ser algo perteneciente a la ciencia ficción o reservado para un futuro" y que "ya está en presente en tu celular cuando te sugiere una ruta en el GPS, en el banco cuando aprueba o rechaza un crédito, en Netflix cuando te recomienda una serie". Y profundizó: "Lo que cambió en los últimos dos años es la escala y la velocidad. Hoy cualquier persona con un teléfono puede interactuar con sistemas de IA muy sofisticados, sin necesidad de ningún conocimiento técnico".
Dicho acceso irrestricto y al mismo tiempo sencillo le abre las puertas a las malas tentaciones, para ser más exacta, a fines non sanctos. En este sentido, Lucas Blanco, abogado y también investigador de los alcances de la Inteligencia Artificial, reveló que ya se emplea para "estafas con la comida y con la industria del seguro". Y explicó: "En ambos se le saca una foto, y se la transforma. En una se la convierte en un alimento podrido, en otra un bollo por un presunto choque, u otro daño".
Sin embargo, a pesar que ya los damnificados advierten posteriormente el engaño, Blanco aseguró: "No se hace la denuncia penal porque son micro estafas, y no vale la pena la pérdida de tiempo ni los gastos de judicialización. Entonces las empresas están haciendo protocolos internos para estar más atentos".
Ante semejante uso delictivo, y la ausencia de límites y prohibiciones, el experto reconoció que "hay una potencialidad de daño enorme con la conversión de la voz, que puede facilitar la concreción de estafas y delitos graves". Un peligro latente que lo atribuye a "un cambio de época" y, al mismo tiempo, anunció: "Se viene un futuro negro porque esta herramienta va a potenciar el delito y muchas profesiones van a quedar obsoletas, como por ejemplo el traductorado. Entonces un tercio de la población va a sobrar".
Un elocuente reflejo de las consecuencias extremas de la manipulación de la IA tuvo lugar en la provincia de Salta, que incluso involucró a la Universidad Nacional de Salta. Un estudiante, en las últimas horas, fue detenido acusado de divulgar fotos de 11 compañeras desnudas. No obstante, dichas imágenes, 43 en total, fueron realizadas con la IA, a partir de fotografías reales de las víctimas. Mediante el empleo de dicha herramienta, las transformaba y retrataba a las mujeres en estado de desnudez, para su posterior publicación en sitios para adultos.
Al respecto, la licenciada en Psicología, Daniela Gasparini remarcó: "No estamos ante simples ‘bromas digitales', sino que se trata de una evolución de la violencia que requiere atención urgente. Esto es violencia sexual digital, porque atenta contra su integridad sexual y psicosocial". Y apuntó contra la carencia de una reglamentación sobre este mecanismo tecnológico, dado que "facilita estructuras de acoso, grooming y redes de explotación que se ocultan tras la complejidad técnica".
Por su parte, Betania Allo argumentó que este tipo de muestras de violencia virtual acontecen porque "en Argentina no existe todavía una ley específica de inteligencia artificial" y detalló: "Hay proyectos en el Congreso, pero ninguno aprobado. A nivel internacional, la Unión Europea aprobó en 2024 la primera ley integral de IA del mundo, que clasifica los sistemas según su nivel de riesgo y prohíbe algunos usos directamente. En Estados Unidos avanza por decreto ejecutivo y en América Latina, en general, va muy retrasada".
Pero, a su vez, Allo hizo referencia a un aspecto muy importante y ultramente preventivo para los efectos dañinos de la Inteligencia Artificial: "Hay iniciativas aisladas en algunas escuelas y universidades, pero no una política sistemática. Eso es un problema serio: estamos enviando a chicos a usar herramientas poderosas sin enseñarles las reglas básicas, como si les diésemos el volante sin enseñarles a manejar".
En consecuencia, Gasparini enfatizó: "Para proteger a niños y adolescentes, el primer paso es eliminar la distancia digital entre adultos y menores. La prevención es principalmente vincular, estar atentos y atentas y con información".
No obstante, la IA ya dio cuenta de sus beneficios, los cuales señaló Allo al detallar que está metodología técnica "ya detecta ciertos cánceres con mayor precisión que un médico promedio", que "en educación permite personalizar el aprendizaje para cada estudiante" y que "en el trabajo cotidiano reduce tareas repetitivas y libera tiempo para lo que requiere criterio humano, además de que para personas mayores, puede ser una herramienta de asistencia, compañía y acceso a información que antes requería intermediarios".
Por eso, la abogada dejó en claro que "el problema no es la tecnología en sí, sino quién la controla, con qué datos, y con qué objetivos".
Riesgos de la IA
Los principales peligros de la Inteligencia Artificial (IA) incluyen la desinformación masiva (deepfakes), sesgos discriminatorios en decisiones automatizadas, y riesgos de seguridad como ciberataques mejorados. Además, representa una amenaza al mercado laboral, la pérdida de privacidad, y potenciales riesgos existenciales si los sistemas superinteligentes superan el control humano. En términos de privacidad y vigilancia, el uso de reconocimiento facial y análisis de datos a gran escala conlleva riesgos de vigilancia masiva.

