Listeners:
Top listeners:
CORRIENTES FM SOMOS TU VOS
HUMOR PARA LEER Y ESCUCHAR Reflexiones de la vida diaria: «Metidas de pata» E-GRUPOCLAN
Cada vez son más conocidas las estafas con voces clonadas por inteligencia artificial (IA), un tipo de ciberataque que utiliza esta tecnología para clonar voces, suplantando la identidad de familiares o amigos para engañar a sus víctimas.
Según una encuesta reciente realizada por McAfee, el 77% de las víctimas de esta modalidad de fraude terminaron enviando dinero.
Por esta razón, explicamos todo lo que debes saber para reconocer este tipo de estafas, y no perder grandes sumas de dinero y tus datos privados.
Este reciente tipo de estafa se inicia con una llamada telefónica en la que los delincuentes usan una voz clonada por IA para hacerse pasar por un conocido.
Normalmente, la llamada simula una situación de emergencia en la que el supuesto familiar o amigo solicita el envío urgente de dinero. Cada vez son más habituales estos engaños, que confunden a las personas con voces de familiares.
Estos fraudes también afectan a las empresas. Los cibercriminales utilizan la clonación de voz para hacerse pasar por superiores o jefes y así convencer a los empleados de realizar transferencias de dinero.
Este método de suplantación resulta ser una combinación de deepfake de voz y robo de identidad, lo cual aumenta su efectividad y la dificultad para detectarlo.
La IA ha facilitado a los estafadores acceder a datos personales y a contactos. Necesitan recopilar grabaciones o muestras de voz para replicarlas y llevar a cabo las estafas. A menudo, estos delincuentes también roban cuentas de WhatsApp para ganarse la confianza de las víctimas a través de mensajes previos a las llamadas.
La protección contra estas amenazas requiere entender cómo operan estas tecnologías y ser cautelosos con las solicitudes inesperadas de dinero.
Las estafas con voces clonadas por IA representan uno de los desafíos más recientes en la protección de datos y privacidad, vinculados directamente con la inteligencia artificial.
Este tipo de ciberataque genera alarma porque es difícil de identificar y las consecuencias pueden ser financieramente devastadoras. Por ello, reconocer los signos de una posible estafa resulta fundamental para prevenirla.
Entre los pasos preventivos más recomendados están el verificar la identidad de quien solicita el dinero mediante otra fuente de contacto, como una videollamada o una pregunta cuya respuesta solo conozcan ambas partes.
También, es importante ser cauteloso a la hora de compartir datos personales en redes sociales, pues estos pueden ser utilizados para clonar la voz.
Para aquellos que se encargan de la seguridad en empresas, se recomienda implementar protocolos de verificación más estrictos, como la autorización por escrito de transferencias importantes.
Además, capacitar a los empleados para que reconozcan las señales de fraude y mantengan una comunicación constante entre equipo es vital para prevenir estos ataques.
Una de las principales medidas es verificar la autenticidad de cualquier solicitud de dinero mediante una llamada o contacto por un medio alternativo a la persona que supuestamente necesita la ayuda económica.
Asimismo, es recomendable implementar el uso de una contraseña familiar en caso de menores de edad, y limitar la cantidad de información personal que se publica en redes sociales.
Esta medida incluye controlar la difusión de audios y vídeos y configurar los ajustes de privacidad para que solo los contactos de confianza puedan acceder a la información compartida.
En el ámbito empresarial, es importante capacitar a los empleados sobre las estafas de voces clonadas y qué acciones deben tomar para evitar caer en ellas. Una formación adecuada puede reducir considerablemente los riesgos asociados a estos fraudes.
Nunca se debe enviar dinero sin haber confirmado la identidad de la persona que realiza la solicitud y la veracidad de su historia. Esta precaución es clave para prevenir engaños.
En caso de sospecha de hackeo en aplicaciones de mensajería como WhatsApp, se debe informar inmediatamente a los contactos para que estén alertas ante peticiones dudosas.
Escrito por E-GRUPOCLAN
Copyright E-GRUPOCLAN - E-GRUPOCLAN PUERTO MADERO | All rights reserved.