Ciberestafa

Alerta en Chubut por estafas: Piden extremar precauciones ante la nueva modalidad delictiva con IA

La Unidad de Cibercrimen provincial ya recibe denuncias por engaños sofisticados que utilizan voces e imágenes clonadas de figuras públicas para promover inversiones falsas. Se insta a la población a extremar precauciones ante esta nueva modalidad delictiva

Equipo de redacción de Madryn Ahora

La Unidad Especializada en Cibercrimen y Ciberdelito de Chubut ha comenzado a recibir denuncias de estafas que utilizan la Inteligencia Artificial (IA) para engañar a las víctimas a través de redes sociales. El fiscal general Fernando Rivarola, titular de la Unidad, alertó sobre la necesidad de prevenir a la población ante estas nuevas y sofisticadas modalidades delictivas que surgen con los avances tecnológicos.

En los últimos dos años, el uso malicioso de la IA ha abierto la puerta a delitos más difíciles de detectar. Los estafadores utilizan videos falsos o "deepfakes" y voces clonadas que imitan la apariencia y el tono de figuras públicas, con el único objetivo de generar confianza y promover estafas financieras. Generalmente, estas personas conocidas recomiendan supuestas inversiones o métodos para obtener ganancias rápidas, buscando robar datos financieros y vaciar cuentas bancarias.

El caso del vocero presidencial

Un ejemplo reciente de esta modalidad son los videos falsos que circularon en redes y aplicaciones de mensajería, donde se ve y escucha al vocero presidencial Manuel Adorni supuestamente recomendando plataformas de inversión. Estos contenidos no fueron realizados por él, sino que fueron generados artificialmente, manipulando su imagen y voz con fines delictivos.

Los mensajes fraudulentos suelen prometer ganancias rápidas, rentabilidad garantizada o accesos VIP a criptomonedas, siempre acompañados de enlaces o números de teléfono que dirigen a sitios web falsos o a los estafadores directamente. Por ello, es crucial saber que el vocero presidencial no promociona inversiones privadas ni comparte claves de acceso por medios no verificados. Las cuentas oficiales de Adorni nunca publicaron dichos contenidos, y a menudo, estos videos presentan fallas en la sincronización labial o en el tono de voz, aunque puedan parecer creíbles.

¿Qué son los deepfakes?

Los deepfakes son videos, audios o imágenes generados con técnicas de inteligencia artificial que imitan la apariencia, la voz y los gestos de una persona real. Gracias a algoritmos avanzados de aprendizaje automático, es posible crear, en cuestión de minutos, un video convincente de alguien diciendo o haciendo cosas que nunca ocurrieron. La preocupación radica en que estas herramientas son cada vez más accesibles, permitiendo a cualquier persona con acceso a plataformas o aplicaciones clonar voces o modificar rostros con pocos clics.

El peligro de caer en la trampa

Este tipo de videos no solo afecta la reputación de las personas suplantadas, sino que pone en peligro a miles de usuarios que podrían caer en estafas. Los delincuentes se aprovechan de la confianza que generan las figuras públicas para atraer víctimas y, una vez que obtienen datos personales o financieros, es extremadamente difícil revertir el daño.

Expertos en ciberseguridad y autoridades judiciales coinciden en que la prevención es la mejor herramienta: ante la duda, no hacer clic, no compartir y denunciar.

¿Qué hacer si es víctima?

Si se encuentra con un mensaje de este tipo o cree ser víctima de una estafa con IA, es fundamental:

  1. No hacer clic en enlaces, no ingresar datos financieros personales, no enviar dinero ni compartir el mensaje.

  2. Recopilar evidencia: Capturas de pantalla del video, del perfil que lo publicó, de los comentarios, enlaces directos, detalles de difusión y cualquier dato de contacto o prueba que demuestre la suplantación.

  3. Realizar la denuncia penal ante una fiscalía especializada en delitos informáticos o en la comisaría más cercana, aportando toda la evidencia recopilada.

  4. Apelar a la Ley de Protección de Datos Personales (Ley 25.326), ya que el uso de la imagen y voz sin consentimiento viola esta normativa.

  5. Contactar a las plataformas digitales para solicitar la remoción urgente del contenido fraudulento, utilizando los formularios específicos para estos casos.

Esta nota habla de: