Skip to main content

Las tecnologías son creadas para hacer el mundo mejor. Pero siempre hay personas que tratan de utilizarlas con un mal fin. En el caso de la Inteligencia Artificial sus usos y descubrimientos no son ajenas a los amigos de la ajeno y las utilizan para las estafas.

En efecto, de igual forma que con el uso perverso de las redes sociales, de los teléfonos móviles, los chats o el correo electrónico, hay usos de la IA como la estafa por suplantación de voz que están empezando a afectar a los usuarios.

En el caso de la Inteligencia Artificial, uno de los casos que hacen sonar las alarmas es la posibilidad de  imitar las voces humanas con gran precisión. El caso más recurrente es el de las estafas telefónicas. Al usar voces clonadas gracias a la potencia de la Inteligencia Artificial, se están originando nuevas amenazas cada vez más sofisticadas y difíciles de contrarrestar.

La clonación de voces con inteligencia artificial

La clonación de voces con IA es un proceso que implica la grabación y análisis de la voz de una persona para luego recrearla de manera que no puedas distinguirla de la original. Los delincuentes pueden obtener grabaciones de voz de una variedad de fuentes, desde llamadas telefónicas anteriores hasta vídeos o mensajes de voz.

El siguiente paso es utilizar los procesos de la IA para analizar los matices y las peculiaridades de esa voz en particular, como el tono, la velocidad y los patrones de entonación.

De esta manera, un empresario chino ha sido recientemente la nueva víctima de una estafa que usa la inteligencia artificial para suplantar la personalidad de alguien cercano. El estafador realizó una videollamada suplantando tanto el aspecto como la voz de un amigo íntimo de la víctima para sustraerle 4,3 millones de yuanes, unos 567.000 euros.

La videollamada se realizó a través de la popular aplicación Wechat el 20 de abril pasado, según apuntan las autoridades policiales de la ciudad de Fuzhou, en el sureste de China. El estafador se hizo pasar por un amigo de la víctima que necesitaba realizar la transferencia de los 4,3 millones de yuanes desde una cuenta de banco para poder pagar la garantía de un concurso público en el que supuestamente quería participar.

Consejos para evitar las estafas de voz con IA

Los periodistas de Maldita han realizado un compendio de consejos para evitar las estafas de voz con IA. Estos son los principales:

  • Sospecha de supuestas llamadas de conocidos a través de números extraños.
  • En caso de duda, ponte en contacto con tus personas cercanas a través del teléfono habitual para comprobar que todo está bien.
  • Analiza si pasa mucho tiempo entre una pregunta y una respuesta. La IA es una tecnología que no es capaz de generar respuestas en tiempo real, por lo que hay un espacio de tiempo desde que hacemos una pregunta hasta que obtenemos una respuesta. Si notas que ese tiempo es demasiado largo, sospecha.
  • En caso de duda haz preguntas personales que solo tus conocidos sean capaces de responder.
  • Limita la exposición de información personal: cuanta más información online publiquemos más sencillo será para los delincuentes suplantar nuestra voz. Es importante ser consciente de que la exposición en redes sociales conlleva riesgos asociados.
  • Revisa configuraciones y ajustes de privacidad en los servicios que utilices para evitar que el proveedor almacene la información registrada a través de la voz y audio, o para configurar borrados automáticos.
Equipo BLOG Grupo Cajamar

Gestión contenidos del blog.