La Unidad Especializada en Ciberdelitos del Ministerio Público Fiscal de Chubut advirtió sobre una nueva modalidad de estafas digitales que ya comenzó a registrarse en la provincia: el uso de inteligencia artificial para crear videos falsos que imitan la imagen y la voz de personas reales, principalmente figuras públicas. El fiscal general Fernando Rivarola, titular del área, confirmó que ya se han recibido denuncias de este tipo y pidió a la población extremar los cuidados.
Estas maniobras, conocidas como “deepfakes”, utilizan tecnología de IA para clonar voces, gestos y rostros con un alto nivel de realismo, y suelen difundirse en redes sociales o aplicaciones de mensajería con fines delictivos. El objetivo es siempre el mismo: promover falsas inversiones, obtener datos personales y vaciar cuentas bancarias.
Chubut: golpeó a su ex, quiso escapar de la policía y lo atraparon con 78 gramos de cocaína
Uno de los casos más recientes es el del vocero presidencial Manuel Adorni, cuya imagen y voz fueron utilizadas en videos falsos que lo muestran promocionando plataformas financieras. Desde la fiscalía remarcaron que estos contenidos no son reales y que el funcionario no realiza ese tipo de promociones ni comparte claves o enlaces por canales no oficiales.
CÓMO HACER PARA NO CAER EN LA TRAMPA
Tomando como ejemplo lo sucedido por Adorni, desde el Ministerio Público Fiscal señalaron aspectos que se deben evaluar antes de asumir que el video que uno recibe es verdadero.
“El vocero presidencial no promociona inversiones privadas ni comparte claves de acceso a través de grupos de WhatsApp o canales no verificados. Las cuentas oficiales de Adorni en redes no publicaron ninguno de estos contenidos”, remarcaron.
Inteligencia artificial y violencia de género: el caso del joven que irá a juicio por exponer a sus compañeras
Por otro parte, señalaron: “Además, es factible observar que muchos de estos videos presentan fallas en la sincronización labial o en el tono de voz, aunque pueden parecer creíbles”.
POR QUÉ UTILIZAN VIDEOS FALSOS DE FIGURAS PÚBLICAS
Los estafadores apelan a la confianza que generan figuras públicas para captar víctimas. Prometen rentabilidades rápidas, accesos exclusivos a criptomonedas o beneficios financieros, con la única intención de engañar y estafar.
Aunque algunos de estos videos presentan fallas evidentes en la sincronización labial o en la entonación de voz, muchos usuarios pueden no advertirlo.
Ante esta situación, la Unidad de Ciberdelitos recomienda no hacer clic en enlaces sospechosos, no compartir mensajes y denunciar de inmediato.
También se alienta a recopilar pruebas (capturas de pantalla, enlaces, datos de contacto) y realizar la denuncia formal ante una comisaría o fiscalía especializada. El uso indebido de la voz o imagen de una persona puede constituir una violación a la Ley de Protección de Datos Personales (Ley 25.326).
Capacitaron al MPF Chubut en el uso de IA para investigar casos de abuso infantil en entornos digitales
La advertencia no solo busca frenar el accionar de los ciberdelincuentes, sino también generar conciencia sobre los riesgos crecientes en un entorno digital cada vez más complejo y sofisticado.GO.