El doble filo de la Inteligencia Artificial: de la herramienta beneficiosa a la amenaza potencial
La IA simplifica muchas tareas cotidianas, pero esconde un peligro detr谩s por los malos usos, como estafas hasta fotograf铆as trucadas.
驴Un beneficio o una amenaza latente y potencial? La Inteligencia Artificial (IA), todav铆a naciente y desconocida para muchos, resulta un campo a seguir explorando con posibilidades y facilidades que en principio la presentan como una herramienta beneficiosa y atractiva de aprovechar. Sin embargo, esa multiplicidad de opciones tambi茅n la tornan peligrosa y preocupante, para fines delictivos, muy graves e incluso porque puede profundizar el desempleo.
"La inteligencia artificial es tecnolog铆a que permite a las m谩quinas hacer cosas que hasta hace poco solo pod铆an hacer los humanos: entender textos, reconocer im谩genes, tomar decisiones, mantener conversaciones", conceptualiz贸 la abogada, Betania Allo. La tambi茅n especialista en Inteligencia Artificial y ciberseguridad destac贸 que este instrumento "dej贸 de ser algo perteneciente a la ciencia ficci贸n o reservado para un futuro" y que "ya est谩 en presente en tu celular cuando te sugiere una ruta en el GPS, en el banco cuando aprueba o rechaza un cr茅dito, en Netflix cuando te recomienda una serie". Y profundiz贸: "Lo que cambi贸 en los 煤ltimos dos a帽os es la escala y la velocidad. Hoy cualquier persona con un tel茅fono puede interactuar con sistemas de IA muy sofisticados, sin necesidad de ning煤n conocimiento t茅cnico".
Dicho acceso irrestricto y al mismo tiempo sencillo le abre las puertas a las malas tentaciones, para ser m谩s exacta, a fines non sanctos. En este sentido, Lucas Blanco, abogado y tambi茅n investigador de los alcances de la Inteligencia Artificial, revel贸 que ya se emplea para "estafas con la comida y con la industria del seguro". Y explic贸: "En ambos se le saca una foto, y se la transforma. En una se la convierte en un alimento podrido, en otra un bollo por un presunto choque, u otro da帽o".
Sin embargo, a pesar que ya los damnificados advierten posteriormente el enga帽o, Blanco asegur贸: "No se hace la denuncia penal porque son micro estafas, y no vale la pena la p茅rdida de tiempo ni los gastos de judicializaci贸n. Entonces las empresas est谩n haciendo protocolos internos para estar m谩s atentos".
Ante semejante uso delictivo, y la ausencia de l铆mites y prohibiciones, el experto reconoci贸 que "hay una potencialidad de da帽o enorme con la conversi贸n de la voz, que puede facilitar la concreci贸n de estafas y delitos graves". Un peligro latente que lo atribuye a "un cambio de 茅poca" y, al mismo tiempo, anunci贸: "Se viene un futuro negro porque esta herramienta va a potenciar el delito y muchas profesiones van a quedar obsoletas, como por ejemplo el traductorado. Entonces un tercio de la poblaci贸n va a sobrar".
Un elocuente reflejo de las consecuencias extremas de la manipulaci贸n de la IA tuvo lugar en la provincia de Salta, que incluso involucr贸 a la Universidad Nacional de Salta. Un estudiante, en las 煤ltimas horas, fue detenido acusado de divulgar fotos de 11 compa帽eras desnudas. No obstante, dichas im谩genes, 43 en total, fueron realizadas con la IA, a partir de fotograf铆as reales de las v铆ctimas. Mediante el empleo de dicha herramienta, las transformaba y retrataba a las mujeres en estado de desnudez, para su posterior publicaci贸n en sitios para adultos.
La IA simplifica tareas cotidianas, aunque tambi茅n puede traer consecuencias.
Al respecto, la licenciada en Psicolog铆a, Daniela Gasparini remarc贸: "No estamos ante simples 鈥榖romas digitales', sino que se trata de una evoluci贸n de la violencia que requiere atenci贸n urgente. Esto es violencia sexual digital, porque atenta contra su integridad sexual y psicosocial". Y apunt贸 contra la carencia de una reglamentaci贸n sobre este mecanismo tecnol贸gico, dado que "facilita estructuras de acoso, grooming y redes de explotaci贸n que se ocultan tras la complejidad t茅cnica".
Por su parte, Betania Allo argument贸 que este tipo de muestras de violencia virtual acontecen porque "en Argentina no existe todav铆a una ley espec铆fica de inteligencia artificial" y detall贸: "Hay proyectos en el Congreso, pero ninguno aprobado. A nivel internacional, la Uni贸n Europea aprob贸 en 2024 la primera ley integral de IA del mundo, que clasifica los sistemas seg煤n su nivel de riesgo y proh铆be algunos usos directamente. En Estados Unidos avanza por decreto ejecutivo y en Am茅rica Latina, en general, va muy retrasada".
Pero, a su vez, Allo hizo referencia a un aspecto muy importante y ultramente preventivo para los efectos da帽inos de la Inteligencia Artificial: "Hay iniciativas aisladas en algunas escuelas y universidades, pero no una pol铆tica sistem谩tica. Eso es un problema serio: estamos enviando a chicos a usar herramientas poderosas sin ense帽arles las reglas b谩sicas, como si les di茅semos el volante sin ense帽arles a manejar".
En consecuencia, Gasparini enfatiz贸: "Para proteger a ni帽os y adolescentes, el primer paso es eliminar la distancia digital entre adultos y menores. La prevenci贸n es principalmente vincular, estar atentos y atentas y con informaci贸n".
No obstante, la IA ya dio cuenta de sus beneficios, los cuales se帽al贸 Allo al detallar que est谩 metodolog铆a t茅cnica "ya detecta ciertos c谩nceres con mayor precisi贸n que un m茅dico promedio", que "en educaci贸n permite personalizar el aprendizaje para cada estudiante" y que "en el trabajo cotidiano reduce tareas repetitivas y libera tiempo para lo que requiere criterio humano, adem谩s de que para personas mayores, puede ser una herramienta de asistencia, compa帽铆a y acceso a informaci贸n que antes requer铆a intermediarios".
Por eso, la abogada dej贸 en claro que "el problema no es la tecnolog铆a en s铆, sino qui茅n la controla, con qu茅 datos, y con qu茅 objetivos".
Los ni帽os, los m谩s vulnerables ante el avance de la Inteligencia Artificial.
Riesgos de la IA
Los principales peligros de la Inteligencia Artificial (IA) incluyen la desinformaci贸n masiva (deepfakes), sesgos discriminatorios en decisiones automatizadas, y riesgos de seguridad como ciberataques mejorados. Adem谩s, representa una amenaza al mercado laboral, la p茅rdida de privacidad, y potenciales riesgos existenciales si los sistemas superinteligentes superan el control humano. En t茅rminos de privacidad y vigilancia, el uso de reconocimiento facial y an谩lisis de datos a gran escala conlleva riesgos de vigilancia masiva.