Los estafadores han encontrado en la inteligencia artificial (IA) una poderosa herramienta para llevar a cabo sus fraudes, utilizando imágenes, videos y audios de sus víctimas para cometer estafas millonarias.
DIARIOD EL HUILA, TECNOLOGÍA
A pesar del avance de esta tecnología, uno de los grandes cuestionamientos a la industria es la falta de mecanismos suficientes para protegernos de los riesgos asociados con su uso.
Hoy en día, cualquier persona puede interactuar con chats conversacionales como Bing Chat, ChatGPT o los sistemas de atención al cliente que emplean inteligencia artificial generativa. También han ganado popularidad los servicios que generan imágenes, pero ¿sabemos realmente cómo protegernos de los posibles engaños? ¿Podemos diferenciar entre un texto o imagen generados por IA y uno real?
Para enfrentar esta amenaza, algunas empresas líderes, bajo la guía del gobierno de Estados Unidos, han comenzado a implementar etiquetas automáticas visibles en los contenidos generados por IA y a incluir esta información en la metadata, buscando garantizar transparencia y trazabilidad. Sin embargo, este mecanismo sigue siendo vulnerable.
La situación se complica cuando hablamos de modelos de IA que las personas pueden ejecutar localmente en sus propios equipos, sin necesidad de reglas ni restricciones. Aquí, el riesgo de que surjan contenidos dañinos aumenta significativamente.
Le puede interesar: Circula la nueva moneda conmemorativa de Celia Cruz
En julio, Brasil tomó una postura firme al bloquear a Meta para que no pudiera entrenar sus inteligencias artificiales con los datos de los usuarios de servicios como Facebook e Instagram. Esta decisión vino poco después de que Meta actualizara su política de privacidad, anunciando que toda la información recolectada podría ser utilizada para entrenar sus modelos de IA. Esto incluye los clics, videos vistos, fotos publicadas y comentarios dejados por los usuarios, aunque las conversaciones en Messenger y WhatsApp permanecen protegidas por encriptación de extremo a extremo, salvo las interacciones con @MetaAI.
Brasil no está solo en esta batalla. Europa también impuso restricciones a Meta. En junio, la Comisión Irlandesa de Protección de Datos celebró que Meta pausara sus planes de entrenamiento de IA con datos de usuarios europeos, tras conversaciones con la compañía. Meta expresó su «decepción» ante esta decisión.
Otra empresa que está empujando los límites de la tecnología es ElevenLabs, una startup especializada en la clonación de voces. Con su producto Iconic Voices, permite que figuras públicas lean artículos o libros al usuario con solo un clip de voz de 30 segundos, logrando una imitación sorprendentemente precisa.
Además, aplicaciones como Reface, que se popularizaron durante la pandemia, siguen evolucionando. Estas herramientas permiten reemplazar rostros en videos con solo una foto, generando resultados asombrosos. Aunque estas tecnologías tienen usos beneficiosos, como en el cine o la localización de voces de actores, también plantean serios riesgos en manos equivocadas.
En enero de este año, circularon en internet imágenes falsas de contenido sexual de Taylor Swift, generadas con IA. Esto desató una ola de rechazo y un apoyo masivo hacia la artista. Hoy en día, cualquier persona podría ser víctima de un incidente similar, ya que los modelos de IA permiten la creación de imágenes manipuladas con tan solo 15 fotos de una persona.
Las pornovenganzas, impulsadas por modelos de difusión de imágenes, son una de las amenazas más graves. Páginas especializadas en la generación de imágenes detallan cómo combinar fotos de rostros con modelos entrenados en diferentes estilos, incluidas escenas explícitas, lo que agrava la problemática.
El peligro también se extiende a la suplantación de identidad. En febrero, un empleado transfirió 25 millones de dólares tras participar en una videollamada falsa, donde los supuestos asistentes eran avatares creados con tecnología de deepfake. A finales de julio, un estafador utilizó un deepfake para imitar la voz del CEO de Ferrari, Benedetto Vigna, y tratar de engañar a un empleado. Afortunadamente, este último caso fue detectado a tiempo y se evitó el fraude.
Estos fraudes no se limitan a grandes empresas. Los estafadores también están utilizando la tecnología para realizar llamadas falsas en las que se hacen pasar por familiares en situaciones de emergencia. Aunque esta táctica no es nueva, el uso de IA la ha hecho más sofisticada. Frente a esto, Google está desarrollando un modelo de IA, *Gemini Nano*, que se integrará en dispositivos Android para identificar lenguaje fraudulento en tiempo real y alertar a los usuarios de posibles estafas. Aún no se ha anunciado cuándo estará disponible esta función.
Foto 1: Los estafadores están usando IA para suplantar personas a través de llamadas y mensajes.
Puede leer: Claves para una buena higiene bucalc