top of page

Phishing con IA desata nueva ola de fraudes

  • Foto del escritor: La Noticia al Punto
    La Noticia al Punto
  • hace 1 día
  • 2 Min. de lectura


ree

¿Cómo operan estas estafas digitales?

Especialistas en ciberseguridad describen un escenario más complejo para la protección de datos personales debido al avance de la Inteligencia Artificial (IA). Durante 2025, expertos como Erika Mendoza y Alejandro Ruiz, de Identy.io, observaron un incremento de fraudes que usan sistemas capaces de clonar voces, imitar rostros y replicar patrones biométricos. Además, identificaron casos en Estados Unidos, Europa y Latinoamérica, lo que demuestra que el fenómeno crece a escala global.


Los analistas explicaron que, con solo unos segundos de audio o pocas fotografías, los modelos de IA pueden generar identidades sintéticas en cuestión de minutos. Por lo tanto, los atacantes aprovechan imágenes disponibles en redes como LinkedIn, Facebook o Instagram para crear copias hiperrealistas que permiten entrar a cuentas bancarias, suplantar personas en videollamadas y generar documentos falsos. Además, el acceso a estas herramientas se volvió sencillo porque existen versiones gratuitas que no requieren conocimientos avanzados.


¿Por qué la biometría falsa representa una amenaza mayor?

Los especialistas detallaron que la IA produce rostros digitales, huellas dactilares simuladas y voces clonadas que algunos sistemas de autenticación aceptan como genuinas. De esta manera, los delincuentes pueden vulnerar dispositivos domésticos y plataformas que dependen de verificaciones faciales o dactilares. Asimismo, Ruiz puntualizó que hace pocos años este software solo circulaba en espacios restringidos, pero ahora está disponible en aplicaciones de libre descarga.


A medida que estos recursos se perfeccionan, crece la preocupación sobre su impacto en trámites financieros, gestiones oficiales y procesos de verificación remota. Por tal motivo, analistas recomiendan integrar métodos multifactoriales, junto con sistemas que analicen patrones de conducta. Mientras tanto, el phishing evoluciona con audios y videos en los que los delincuentes imitan a familiares o ejecutivos para solicitar transferencias urgentes y obtener códigos de acceso.


Además, las estafas avanzan hacia mercados clandestinos donde se venden identidades digitales completas. Estos paquetes incluyen voz clonada, modelos faciales y documentos generados por IA, cuyo costo supera al de bases de datos tradicionales porque permiten fraudes más sofisticados. Los expertos prevén que, en 2026, los gobiernos discutan normas que limiten la creación de modelos que reproduzcan rasgos biométricos sin consentimiento.


¿Qué medidas pueden frenar la expansión de estas estafas?

Las compañías de ciberseguridad crearon herramientas que detectan contenido sintético mediante microseñales que distinguen un video real de uno generado por IA. Así, las instituciones financieras y las plataformas de identidad digital añaden una capa adicional para blindar procesos de autenticación. Además, las empresas tecnológicas recomiendan desconfiar de solicitudes repentinas, sobre todo cuando provienen de mensajes que apelan a la urgencia.


Por último, los especialistas remarcan que la educación digital resulta esencial. Usuarios y organizaciones deben actualizar protocolos, comprobar identidades por vías alternativas y limitar la exposición de datos sensibles. De esa manera, se reduce el riesgo de que personas sin experiencia técnica utilicen herramientas avanzadas para clonar identidades y ejecutar fraudes cada vez más complejos.

Por Cadena Política


 
 
 

Comentarios


bottom of page