Us贸 inteligencia artificial para robar 600.000 d贸lares en segundos: 驴C贸mo hizo?
El particular episodio tuvo lugar en China. A聽pesar de que la v铆ctima聽realiz贸 la denuncia a la Polic铆a Cibern茅tica,聽todav铆a no pudo recuperar聽su dinero.
En tiempos de Inteligencia Artificial (IA) hay varios que aprovechan la oportunidad y "hacen su negocio", como un聽estafador chino que utiliz贸 esto para聽hacerse pasar por un amigo de confianza de un empresario聽y convencerle de que le entregara millones de yuanes.
El asunto es que la v铆ctima, de apellido Guo, recibi贸 el mes pasado una videollamada de una persona que parec铆a y sonaba como un amigo cercano. Pero la persona que llamaba era en realidad un estafador que聽鈥渦tilizaba tecnolog铆a inteligente de inteligencia artificial para cambiar su rostro鈥 y su voz, seg煤n un art铆culo publicado por un portal de medios de comunicaci贸n asociado al gobierno de la ciudad meridional de Fuzhou.
聽
Guo fue convencido para que transfiriera 4,3 millones de yuanes (609.000 d贸lares) despu茅s de que el estafador afirmara que otro amigo necesitaba que el dinero saliera de la cuenta bancaria de una empresa para pagar la garant铆a de un concurso p煤blico.
El estafador pidi贸 el n煤mero de la cuenta bancaria personal de Guo y luego afirm贸 que se hab铆a transferido una suma equivalente a esa cuenta, envi谩ndole una captura de pantalla de un registro de pago fraudulento.
Inteligencia Artificial: fraude descubiertoSin comprobar que hab铆a recibido el dinero, Guo envi贸 dos pagos desde la cuenta de su empresa por un total de la cantidad solicitada. 鈥淓n ese momento,聽comprob茅 la cara y la voz de la persona que me llamaba por v铆deo, as铆 que baj茅 la guardia鈥, afirma Guo.
S贸lo se dio cuenta de su error despu茅s de enviar un mensaje al amigo cuya identidad hab铆a sido robada, que no ten铆a conocimiento de la transacci贸n.
聽
Guo avis贸 a la polic铆a, que notific贸 a un banco de otra ciudad que no procediera con las transferencias, y consigui贸 recuperar 3,4 millones de yuanes. A帽adi贸聽que se estaba聽intentando recuperar el resto de los fondos, pero no identificaba a los autores de la estafa.
Desde que la empresa estadounidense OpenAI lanz贸 en noviembre ChatGPT, un chatbot que imita el habla humana, la atenci贸n se ha centrado en los peligros potenciales de la innovadora tecnolog铆a de IA.
Planes de ChinaEn tanto, China anunci贸聽ambiciosos planes para convertirse en l铆der mundial de la IA en 2030, y una serie de empresas tecnol贸gicas como Alibaba, JD.com, NetEase y ByteDance, matriz de TikTok, se apresuraron聽a desarrollar productos similares.
ChatGPT no est谩 disponible en China, pero el software estadounidense est谩 adquiriendo una base de usuarios chinos que utilizan redes privadas virtuales para acceder a 茅l con el fin de escribir redacciones y estudiar para los ex谩menes. Pero tambi茅n se utiliza con fines m谩s nefastos.
聽
Este mes, la polic铆a de la provincia noroccidental de Gansu inform贸 de que se hab铆an tomado 鈥渕edidas coercitivas鈥 contra un hombre que utiliz贸 ChatGPT para crear una noticia falsa sobre un accidente de autob煤s mortal que se difundi贸 ampliamente en las redes sociales.
La聽ley que regula los deepfakes, que entr贸 en vigor en enero, proh铆be el uso de esta tecnolog铆a para producir, publicar o transmitir noticias falsas. Y un proyecto de ley propuesto el mes pasado por el regulador de Internet de Pek铆n exigir铆a que todos los nuevos productos de IA se sometieran a una 鈥渆valuaci贸n de seguridad鈥 antes de ser lanzados al p煤blico.
聽