El fraude de la "hija en apuros" evoluciona: el Incibe alerta del uso de IA para clonar voces en estafas telefónicas

Estas son algunas de las pautas de Incibe para luchar contra la modernización de las estafas

IA. Foto EP
IA. Foto EP

La tecnología ha dado un giro inquietante en manos de los ciberdelincuentes. El Instituto Nacional de Ciberseguridad (Incibe) ha dado a conocer el caso de una usuaria que estuvo a punto de ser víctima de una estafa tras recibir una llamada donde, mediante Inteligencia Artificial, clonaron la voz de su hija para pedirle dinero de forma urgente.

La mujer contactó con la línea 017, el servicio gratuito y confidencial 'Tu ayuda en ciberseguridad', visiblemente “preocupada y asustada”. Según su relato, un supuesto personal sanitario la llamó para informarle de que su hija estaba grave y necesitaba una operación inmediata. Para darle veracidad al engaño, los estafadores le pasaron la llamada a la supuesta hija: la mujer escuchó una voz idéntica a la de ella, llorando y gritando. Tenía que pagar.

Estaba dispuesta a hacerlo, pero antes de formalizar la transferencia, la usuaria decidió colgar y llamar directamente a su hija, a su número de teléfono de siempre. Con esta simple llamada, confirmó la estafa.

Desde el Incibe, los expertos le dijeron lo mismo, que se trataba de un ataque de vishing avanzado, donde se utilizan muestras de audio reales (obtenidas a veces de redes sociales o vídeos públicos) para que una IA genere frases nuevas con el mismo tono y timbre.

Ante la sofisticación de estos ataques, el servicio ‘Tu Ayuda en Ciberseguridad’ ha compartido una serie de pautas clave para blindar el entorno familiar, como establecer una "contraseña familiar" (acordar una palabra clave que solo conozcan los miembros de la familia para verificar la identidad en situaciones de supuesta emergencia), colgar y llamar al contacto oficial, bloquear el número y denunciar ante las autoridades y no facilitar datos personales ni bancarios, por dramática que sea la historia.

"La Inteligencia Artificial es capaz de imitar el llanto y el tono de un ser querido, pero no puede replicar la precaución de un usuario informado", señalan desde el instituto.

stats