Por Maximiliano Ripani. Experto en ciberseguridad de ZMA IT Solutions (www.zma.la)
Durante años, los delincuentes digitales se valieron del correo electrónico, los mensajes de texto o las llamadas falsas para engañar a sus víctimas. Pero algo cambió de forma profunda: la llegada de la inteligencia artificial (IA) no solo transformó los negocios, la comunicación y la creatividad, sino también el delito. Hoy, los estafadores cuentan con herramientas que hace pocos años eran impensadas, sistemas que escriben, hablan, imitan voces y hasta crean rostros falsos con precisión milimétrica. El resultado es un nuevo tipo de estafa digital, más convincente, más veloz y más difícil de detectar.
El auge de las “ciberestafas potenciadas por IA” marca un punto de inflexión. Ya no se trata de un hacker en solitario intentando forzar contraseñas, ahora hablamos de redes criminales que usan chatbots, generadores de voz, deepfakes y modelos de lenguaje avanzados para diseñar engaños a medida, tan creíbles que ni los expertos pueden distinguirlos a simple vista. En este artículo, vamos a desmenuzar cómo funciona este fenómeno, cómo se manifiesta en Argentina y en el mundo, por qué es tan peligroso y qué podemos hacer, como usuarios, empresas y sociedad, para convivir con esta nueva realidad.
La inteligencia artificial generativa, la que produce texto, imágenes, audios o videos a partir de instrucciones, se popularizó con una velocidad asombrosa. En cuestión de meses, herramientas como ChatGPT, Midjourney o ElevenLabs pasaron de ser curiosidades tecnológicas a integrarse en el día a día de profesionales, empresas y estudiantes. Pero el mismo poder creativo que permite redactar informes o generar campañas publicitarias puede ser usado para fabricar engaños.
Las ciberestafas con IA se apoyan en tres capacidades clave que revolucionaron el panorama del fraude digital:
La personalización masiva: los modelos de IA pueden analizar enormes volúmenes de información pública, perfiles de LinkedIn, redes sociales, sitios corporativos, y generar mensajes diseñados específicamente para una persona o empresa. No más correos genéricos con errores de ortografía. Ahora son mensajes que mencionan nombres reales, proyectos en curso o incluso la manera particular en que alguien suele escribir.
La imitación de voz y rostro, con apenas unos segundos de audio o video, los sistemas de síntesis pueden recrear la voz o la cara de una persona. Esto permite, por ejemplo, que un delincuente simule una videollamada o una nota de voz de un directivo pidiendo una transferencia urgente. Son los llamados deepfakes, una tecnología que hasta hace poco pertenecía al cine o a la propaganda, y que hoy está al alcance de cualquiera con una computadora y conexión a internet.
La automatización del engaño: los chatbots impulsados por IA pueden mantener conversaciones largas, naturales y adaptativas con múltiples víctimas a la vez. Pueden simular ser agentes de soporte, empleados bancarios o representantes de una empresa, respondiendo de forma coherente y convincente, sin descanso y sin errores evidentes.
Este cóctel tecnológico da lugar a una nueva generación de fraudes que ya no dependen solo del descuido del usuario, sino de su capacidad para discernir entre lo real y lo fabricado.
Hace apenas una década, las estafas por internet seguían patrones relativamente simples: correos que prometían premios, herencias inexistentes o avisos bancarios con logos mal copiados. El ojo entrenado podía detectarlos con facilidad. Hoy, en cambio, la frontera entre lo verdadero y lo falso se volvió difusa.
Un ejemplo claro son las estafas de suplantación de identidad empresarial, conocidas como CEO fraud o Business Email Compromise (BEC). En su versión tradicional, el atacante enviaba un correo haciéndose pasar por un directivo para pedir una transferencia. Con la IA, ese mensaje puede incluir el tono de redacción exacto del CEO, y complementarse con una llamada donde la voz clonada del ejecutivo refuerza la orden. En 2024, un caso resonante ocurrió en Reino Unido: un empleado transfirió más de 200.000 libras tras recibir una videollamada donde veía, y escuchaba, al supuesto gerente financiero. El rostro era un deepfake generado por IA.
Otro ejemplo son las estafas amorosas digitales o romance scams. Antes requerían semanas de conversación para generar confianza. Hoy, un chatbot entrenado en psicología básica puede mantener múltiples relaciones virtuales a la vez, simulando empatía, horarios de trabajo, historias personales y hasta compartir fotos “realistas” generadas por IA. El resultado, vínculos falsos que terminan en pedidos de dinero o en chantajes con imágenes íntimas fabricadas.
En Argentina y América Latina, los casos más comunes incluyen la suplantación de identidad en WhatsApp o redes sociales, la creación de perfiles falsos de empresas para ofrecer inversiones o préstamos, y las llamadas fraudulentas con voces clonadas. En 2025 ya se registraron incidentes donde delincuentes usaron audios generados por IA para pedir dinero a familiares, simulando ser hijos en apuros. El nivel de realismo fue tal que las víctimas reaccionaron sin sospechar.
El elemento más inquietante de estas nuevas ciberestafas no es la tecnología, sino su capacidad para explotar la confianza humana. A diferencia del pasado, donde las señales de fraude eran evidentes (mails mal escritos, acentos extraños, errores de formato), hoy los engaños se sienten auténticos. La IA borra las pistas delatoras.
Esto ocurre por varios motivos:
Velocidad y escala: un delincuente puede generar cientos de mensajes o audios personalizados por hora, sin esfuerzo manual. Antes, cada estafa requería tiempo y preparación; ahora, el proceso está automatizado.
Empatía simulada: los modelos de lenguaje pueden responder de manera emocional, adaptando el tono según la reacción de la víctima. Si alguien duda, el bot puede mostrarse “comprensivo” o “indignado”, tal como lo haría una persona.
Apariencia de profesionalismo: los textos generados son gramaticalmente perfectos, las voces suenan naturales, las páginas falsas lucen idénticas a las originales. En un entorno de sobrecarga informativa, pocos tienen tiempo de verificar cada detalle.
Explotación de datos públicos: toda la información que una persona o empresa publica en redes, cumpleaños, cargos, viajes, anuncios, sirve como materia prima para que la IA construya una estafa creíble. En la práctica, cada posteo puede volverse un fragmento de ingeniería social.
La línea entre “real” y “sintético” se vuelve tan delgada que incluso los expertos necesitan herramientas forenses para detectar las falsificaciones. Para el usuario común, la intuición ya no alcanza.
En Argentina, las denuncias por estafas digitales crecieron más de 300% entre 2020 y 2024, según datos de organismos judiciales y de la Unidad Fiscal Especializada en Ciberdelincuencia (UFECI). Y aunque no todas involucran inteligencia artificial, los investigadores reconocen que los casos donde se usaron voces o imágenes sintéticas aumentan mes a mes.
En 2024, un caso de alto perfil involucró a una empresa mediana del conurbano bonaerense: el responsable financiero recibió una videollamada de quien creía ser el director general, pidiéndole aprobar un pago “urgente” a un nuevo proveedor. La cara, el tono de voz y hasta los gestos coincidían. Pero el directivo estaba de viaje. La empresa perdió más de 90.000 dólares en una transferencia internacional. Los peritajes posteriores confirmaron que se trataba de un deepfake.
Otro fenómeno emergente son las estafas inversas: delincuentes que contactan a personas alertando sobre supuestas “ciberestafas” y ofrecen “ayuda técnica”, simulando ser empleados de bancos o empresas de seguridad. A través de una llamada o videollamada con rostros generados por IA, convencen a las víctimas de entregar datos o instalar programas de control remoto.
También proliferan los videos falsos en redes sociales, donde se muestran figuras públicas “recomendando inversiones” o “anunciando beneficios”. Muchas veces se trata de deepfakes fabricados con fines de fraude financiero. En la región, se registraron videos con supuestas declaraciones de empresarios o funcionarios que nunca existieron, diseñados para atraer a incautos hacia plataformas falsas de criptomonedas.
Estos casos evidencian que la IA democratizó el acceso al engaño, ya no hace falta un gran presupuesto ni conocimiento técnico avanzado. Las herramientas están disponibles en línea, muchas incluso gratis o por suscripción.
Ante este escenario, la pregunta inevitable es: ¿cómo defenderse cuando lo falso se volvió indistinguible de lo real?
El primer paso es asumir que la verificación humana tradicional ya no alcanza. Si antes bastaba con mirar un logo o escuchar una voz para confiar, hoy eso puede ser justamente lo que el atacante imita mejor. La defensa debe combinar sentido común, educación digital y herramientas tecnológicas.
Desconfiar del “urgente”: la mayoría de las estafas apelan a la emoción o la prisa. Si un mensaje, una llamada o una videollamada solicita una acción inmediata, transferir dinero, aprobar un acceso, confirmar un código, la respuesta más segura es frenar y verificar por otro canal.
Verificar identidades por doble canal: ante un pedido de dinero o de información, confirmar siempre con la persona por otro medio (una llamada directa, un mensaje personal, un encuentro cara a cara). Si el pedido vino por WhatsApp, corroborar por teléfono; si vino por correo, usar un número ya conocido.
Cuidar la huella digital: revisar qué información personal o laboral se publica en redes. Datos como nombres de familiares, fotos, cargos o fechas pueden ser utilizados para personalizar engaños. La privacidad es una forma de seguridad.
Implementar autenticación multifactor (MFA): aunque no evita las estafas, limita el daño en caso de robo de credenciales. Es una capa extra que dificulta el acceso a cuentas, incluso si la contraseña fue comprometida.
Educar a empleados y familiares: las empresas deben capacitar a su personal sobre los nuevos tipos de fraude. Y en el hogar, hablar del tema es esencial, especialmente con adultos mayores o adolescentes, los grupos más vulnerables a los engaños emocionales.
Usar herramientas de detección y verificación: algunos navegadores, bancos y plataformas ya incorporan mecanismos de verificación automática de voz o imagen. También existen servicios que analizan metadatos para detectar si un video o audio fue manipulado.
Reportar incidentes: denunciar ante el banco, la empresa afectada y las autoridades competentes. Cada denuncia ayuda a generar estadísticas y mejorar la respuesta colectiva.
Lo que viene: la industria del fraude automatizado
Los expertos en ciberseguridad advierten que lo que vemos hoy es apenas el comienzo. Se espera que en los próximos años surjan redes criminales totalmente automatizadas, donde bots impulsados por IA ejecuten campañas de fraude sin intervención humana directa. Estos sistemas podrían “aprender” qué tipo de mensajes funcionan mejor, adaptar su estrategia en tiempo real y operar 24/7 en diferentes idiomas.
En el mundo ya circula el término Fraud-as-a-Service (FaaS): plataformas delictivas que ofrecen “servicios” de estafa listos para usar, desde generación de mensajes hasta clonación de voz. Lo que antes requería un hacker experimentado ahora se vende en forma de suscripción mensual. En foros clandestinos, ya se ofrecen “IA personalizadas” entrenadas para imitar la voz de celebridades, simular operadores de atención al cliente o redactar cartas legales falsas.
El riesgo no se limita al ámbito financiero. La desinformación política y la manipulación mediática también se potencian con IA. En época electoral, un audio o video falso difundido en redes puede influir en la opinión pública antes de que se compruebe su falsedad. Lo que se conoce como “infocrimen”, la manipulación de la verdad a gran escala, se convierte en un arma tan poderosa como el fraude económico.
En este contexto, las empresas tienen un desafío doble. Por un lado, deben reforzar su infraestructura tecnológica; por otro, deben cuidar la confianza, un activo tan valioso como intangible.
Esto implica:
Protocolos de verificación interna: definir canales oficiales de comunicación, especialmente para operaciones sensibles. Si el CEO da instrucciones de pago, debe existir una política clara de doble confirmación.
Monitoreo de reputación digital: las compañías deben vigilar la aparición de falsos perfiles, páginas o campañas que usen su marca. Detectar rápido una suplantación puede evitar que clientes o empleados caigan en engaños.
Capacitación continua: la ciberseguridad ya no es un tema exclusivo del área técnica. Todos los empleados deben entender qué es un deepfake, cómo identificar señales de fraude y cómo reportar incidentes.
Inversión en detección de contenidos sintéticos: existen herramientas de verificación basadas en IA que analizan patrones imperceptibles en audios o videos para determinar si fueron generados artificialmente.
El objetivo final no es eliminar el riesgo, eso sería imposible, sino reducirlo y gestionarlo. La clave está en anticiparse: cuanto más preparada esté una organización, menos vulnerable será ante el engaño.
La paradoja es evidente: las mismas tecnologías que permiten mejorar la educación, la atención médica o la creatividad, también facilitan el fraude. La IA es neutral; lo que cambia es el uso que se le da. Pero esta neutralidad plantea un dilema ético y legal. ¿Hasta qué punto se puede responsabilizar a una herramienta por los delitos que alguien comete con ella? ¿Cómo se regula algo que evoluciona más rápido que las leyes?
En la Unión Europea ya se discuten normativas para etiquetar contenidos generados por IA y exigir trazabilidad en modelos de alto riesgo. En América Latina, el debate recién comienza. Argentina aún no cuenta con legislación específica sobre el uso malicioso de IA, aunque la Ley de Protección de Datos y el Código Penal pueden aplicarse en algunos casos de suplantación o estafa.
Sin embargo, la regulación no alcanza si no hay conciencia social. La alfabetización digital, entender qué puede hacer la tecnología y cómo puede engañarnos, será tan necesaria como aprender a leer o escribir.
Más allá de la tecnología, hay un componente que sigue siendo el mismo: la vulnerabilidad humana. La IA perfecciona el disfraz, pero el truco sigue apuntando a las emociones. Las personas caen en estafas porque confían, porque se asustan, porque quieren ayudar o porque creen en la autoridad. El algoritmo solo multiplica esas emociones.
Los delincuentes estudian los comportamientos, no las máquinas. Y en eso, la IA les da ventaja, puede analizar miles de perfiles y detectar patrones de respuesta. Si una persona tiende a responder rápido a mensajes laborales, el bot ajustará su tono. Si otra publica fotos familiares, apelará a la empatía. El ataque es emocional antes que técnico.
Por eso, la mejor defensa sigue siendo una cultura de duda razonable. No paranoia, sino prudencia. Enseñar a hacer pausas, a verificar, a no reaccionar bajo presión. Como dicen los expertos, la ciberseguridad no empieza en el firewall, sino en la cabeza de las personas.
El siglo XXI nos enfrenta a una paradoja inquietante, nunca fue tan fácil comunicarnos y, al mismo tiempo, nunca fue tan fácil engañarnos. La inteligencia artificial amplifica lo mejor y lo peor de nosotros. Nos permite crear conocimiento, pero también fabricar mentiras convincentes. Frente a eso, la única defensa sostenible es reconstruir la confianza entre personas, entre empresas y entre la sociedad y la tecnología.
Las ciberestafas con IA no son solo un problema de seguridad informática, sino un desafío cultural. Nos obligan a repensar cómo validamos lo que vemos y escuchamos, cómo enseñamos pensamiento crítico y cómo equilibramos la innovación con la responsabilidad. Si logramos hacerlo, la IA será una aliada. Si no, se convertirá en el cómplice más eficaz que el fraude haya tenido jamás.
En definitiva, la inteligencia artificial no inventó el engaño, pero sí lo profesionalizó. Y frente a eso, la respuesta no será tecnológica, sino humana, educación, criterio y sentido común. Porque en el mundo que viene, la diferencia entre la verdad y la mentira puede depender de la capacidad de cada uno para detenerse un segundo y preguntar: “¿esto que estoy viendo… es real?”.

