header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

Los ladrones ahora están usando deepfakes de IA para engañar a las empresas para que les envíen dinero

Sep 11, 2019 12:42 AM ET

Ilustración por Alex Castro y Grayson Blackmon / The Verge

Parece que cada pocos días hay otro ejemplo de un profundo convincente que se vuelve viral u otra pieza de software libre y fácil de usar (algunos incluso hechos para móviles) que puede generar vídeo o audio convincente que está diseñado para engañar a alguien para que crea una pieza de el artificio virtual es real. Pero según The Wall Street Journal, pronto puede haber serias ramificaciones financieras y legales para la proliferación de la tecnología deepfake.

La publicación informó la semana pasada que el director ejecutivo de una compañía energética del Reino Unido fue engañado para que cableado de 200.000 libras esterlinas (o unos 220.000 dólares estadounidenses) a un proveedor húngaro porque creía que su jefe le estaba instruyendo que lo hiciera. Pero la compañía de seguros de la compañía de energía, Euler Hermes Group SA, dijo al WSJ que un estafador inteligente equipado con IA estaba usando software deepfake para imitar la voz del ejecutivo y exigir que su subnivel le pagara en una hora.

“El software fue capaz de imitar la voz, y no sólo la voz: la tonalidad, la puntuación, el acento alemán”, dijo más tarde un portavoz de Euler Hermes a The Washington Post. La llamada telefónica fue emparejada con un correo electrónico, y la empresa de energía CEO obligado. El dinero se ha ido, después de haber sido movido a través de cuentas en Hungría y México y dispersado por todo el mundo, informa el Post.

Más tarde, después de que se hizo una segunda petición de los ladrones, el CEO de la firma de energía llamó a su jefe real, sólo para encontrarse manejando las llamadas tanto de la versión falsa como de las versiones reales del hombre simultáneamente, lo que alertó al CEO del robo en curso. Euler Hermes declinó nombrar a la empresa de energía o a su matriz alemana.

Puede que no sea la primera vez que esto sucede. Según el Post, la firma de ciberseguridad Symantec dice que se ha encontrado con al menos tres casos de fraude de voz deepfake utilizados para engañar a las empresas para que envíen dinero a una cuenta fraudulenta. Symantec dijo al Post que al menos uno de los casos, que parece ser distinto del que Euler Hermes ha confirmado, dio lugar a millones de dólares en pérdidas.

La situación pone de relieve la naturaleza tensa de la investigación de IA, especialmente en torno a la creación artificial de vídeo y audio. Mientras que ninguna de las grandes empresas de Silicon Valley con grandes y capaces instituciones de investigación de IA está desarrollando abiertamente software de video deepfake, algunos están trabajando diligentemente en el ámbito del audio.

El controvertido servicio Duplex de Google utiliza la IA para imitar la voz de un ser humano real para que pueda realizar llamadas telefónicas en nombre de un usuario. Una serie de startups más pequeñas, muchas de las cuales se encuentran en China, están ofreciendo servicios similares de forma gratuita en teléfonos inteligentes, a veces bajo términos cuestionables de privacidad y recopilación de datos. Mientras tanto, los investigadores de las empresas tecnológicas y del mundo académico están tratando de desarrollar software de detección de deepfake. Otros investigadores están desenterrando hasta qué punto se puede generar y propósito un deepfake convincente utilizando cantidades aún menores de datos.

En otras palabras, los deepfakes están aquí, y pueden ser peligrosos. Sólo vamos a necesitar mejores herramientas para resolver lo real de lo falso.

Contact Information:

Nick Statt
Keywords:  afds, afdsafds

Tags:  News, Spanish, United States, Wire