Diario del Huila

¡Ojo que no lo estafen!

Abr 18, 2024

Diario del Huila Inicio 5 Actualidad 5 ¡Ojo que no lo estafen!

Con IA es fácil replicar la voz de cualquier persona. Dude de campañas que le parezcan muy buenas.

DIARIO DEL HUILA, TECNOLOGÍA

Plataformas y redes sociales como Facebook e Instagram se han llenado en los últimos meses de los denominados deepfakes de voz de personas famosas, que respaldan sorteos y concursos fraudulentos, juegos de azar y oportunidades de inversión para intentar engañar a los internautas.

Los deepfakes de voz se generan a través de herramientas de inteligencia artificial (IA) para crear copias sintéticas de la voz de otro individuo. Es posible porque esta tecnología emplea técnicas de aprendizaje profundo para replicar el habla de una persona con un audio realista y convincente, debido a sus similitudes con la voz humana.

Frente a las voces sintéticas generadas íntegramente por un computador que utiliza sistemas de conversión de texto a voz, la clonación de voces usa la voz real de otro individuo para producir una interpretación realista del original.

Crear un deepfake es relativamente sencillo, ya que solo es necesario recopilar muestras de la voz humana que se quiere clonar, ya sea a través del audio de un video o mediante una grabación física de alguien hablando.

Una vez se ha recogido esa muestra, el software de clonación de voz la analiza para identificar los detalles de la voz, como el tono, el ritmo o el volumen, entre otras características vocales. Todos estos datos se utilizan para entrenar un modelo de aprendizaje automático.

Este proceso implica introducir los datos de voz en un algoritmo que sea capaz de aprender a imitar la voz original. Admite, además, la adición de datos para refinar el deepfake.

Si bien la clonación de voz tiene muchos usos legítimos, como la creación de asistentes de voz personalizados, esta tecnología se usa también para actividades fraudulentas.

Este uso de la IA ha causado enorme preocupación porque con él ya se está tratando de influir en procesos democráticos y engañar a potenciales votantes, como ocurrió en enero cuando, antes de las primarias presidenciales de Nuevo Hampshire, ciudadanos de Nueva Inglaterra recibieron llamadas telefónica supuestamente del presidente Biden en la que les pedía guardar el voto para los comicios noviembre.

Ante esta amenaza, grandes tecnológicas, entre ellas Google, Microsoft y Meta, firmaron el acuerdo ‘AI Elections Accord’ y se comprometieron a evitar el uso fraudulento de la IA en procesos electorales en el mundo, desarrollando herramientas para poner en evidencia las deepfakes y promover la autenticidad de sus contenidos.

Actividades fraudulentas

Entre algunas de las actividades fraudulentas más dañinas están el ciberacoso, el chantaje o la creación de deepfakes para manipular, engañar o dañar financieramente a usuarios, como explica en su blog la compañía de seguridad informática Bitdefender.

Las plataformas y redes sociales se han convertido en el canal de difusión de buena parte de estas estafas. Esto preocupa especialmente a sus usuarios, ya que más del 57 por ciento asegura sentirse intranquilo por su exposición ante esta tendencia creciente, como revela un reciente sondeo realizado por los responsables de las soluciones de software Voicebot y Pindrop.

Puede leer: Epidemiólogos descubrieron nueva variante de la viruela del mono

Bitdefender ha hecho un análisis de este fenómeno y se ha centrado principalmente en los deepfakes de voz que circulan por Facebook, plataforma de Meta, aunque no es la única en la que proliferan estos ataques, ya que Instagram, Audience Network y Messenger se encuentran entre los principales sitios donde abundan estas estafas.

Así puede identificarlas y aprender a protegerse

La compañía de seguridad informática Bitdefender revela que, de acuerdo con el análisis que ha realizado de los deepfakes de voz en Facebook, los grupos demográficos más afectados por esta clase de fraudes de voz son los que tienen edades entre los 18 y los 65 años.

Con ello ha reconocido que, a pesar de que se trata de un método cada vez más sofisticado, la mayoría de los videos y suplantaciones de voz analizados para este estudio “están mal ejecutados” e incluyen indicios “muy visibles y anomalías visuales” que permiten determinar que se trata de una estafa.

Entre algunas de estas evidencias, ha mencionado la más habitual, que son los movimientos de labios que no coinciden con lo que se está diciendo o las imágenes distorsionadas, entre otros ejemplos.

Según los cálculos de la firma de ciberseguridad, las estafas deepfake de voz se dirigieron al menos a un millón de usuarios estadounidenses y europeos, en países como España, Rumania, Francia, Austria, Bélgica, Portugal, Polonia, Suecia, Holanda, Chipre y Dinamarca. De hecho, un solo anuncio llegó a 100.000 usuarios.

Para evitar esta clase de estafas, Bitdefender ha comentado que siempre se deben verificar la calidad y la consistencia de la voz, debido a que las voces clonadas suelen tener tonos inusuales, ser estáticas o presentar inconsistencias en los patrones del habla.

Anuncios fraudulentos que usan ‘deepfakes’ en la voz tienen el potencial de llegar a 100.000 personas.

Le puede interesar: La vitamina que ayuda regenerar el cartílago de la rodilla

Tal vez te gustaría leer esto

Abrir chat
1
¿Necesitas ayuda?
Hola, bienvenido(a) al Diario del Huila
¿En qué podemos ayudarte?