Clonan la voz de un familiar con IA para realizar estafas telefónicas contactando con otra persona allegada a la víctima
Desde INCIBE alertan a la población de que en caso de recibir una llamada sospechosa de este tipo se pongan en contacto a través del 017
El Instituto Nacional de Ciberseguridad (INCIBE) ha alertado de un nuevo método de fraude usando la voz de un familiar creada con Inteligencia Artificial (IA). Según indican desde el INCIBE la voz de alerta la dio una pareja después de que la mujer recibiera una llamada sospecha del que parecía su marido, comprobando posteriormente que no se trataba de él y sospechando que se podría tratar de una estafa.
Aunque el hombre aseguró a través del contacto 017 de INCIBE que no había ningún vídeo con su voz publicado en redes sociales, detalló que días previos había recibido diferentes llamadas desde un número desconocido donde nadie contestaba. Llamadas que según INCIBE podrían tratarse del origen de la grabación de su voz.
Desde INCIBE alertan a la población de que en caso de recibir una llamada sospechosa de este tipo se pongan en contacto a través del 017 y se de aviso a las autoridades policiales y por supuesto que no se devuelva la llamada, ni mucho menos se faciliten datos personales, ya que los ciberdelincuentes al hacerse pasar por un familiar podrían tratar de conseguir datos bancarios o incluso de la petición de realizar una transferencia bajo algún tipo de excusa.
También te puede interesar