IMPACTO SOCIAL

La voz de una adolescente fue clonada con una IA en un caso de extorsión en Estados Unidos

Imagina que un familiar te llama desde un número desconocido para decirte que está en la cárcel y que necesita dinero para pagar la fianza. Bueno, esa es una de las historias más usadas por extorsionadores telefónicos, y ahora están utilizando una voz clonada con IA para hacerlo más creíble.

En un caso reciente ocurrido en Arizona, los delincuentes utilizaron la voz clonada de una adolescente que estaba de viaje y le llamaron a su madre haciéndose pasar por secuestradores. Le exigieron un millón de dólares como “rescate”.

Mira también – Una tatuadora se negó a tatuar «propiedad de Víctor» por considerarlo machista

“No dudé ni por un segundo que fuera ella”, contó Jennifer DeStefano a WKYT. «Es la parte perturbadora que realmente me sacudió”.

Cuando la mujer dijo que no tenía esa suma, los extorsionadores redujeron la cifra a 50 mil dólares. Por suerte, ella no hizo la transferencia porque la policía le avisó que había localizado a su hija, a salvo en un resort de ski.

Mira también – Adolescentes vieron ‘American Pie’ por primera vez y la calificaron como una película profundamente machista

No es un hecho aislado

En otro caso, una pareja de ancianos recibió una llamada en la que escucharon la voz clonada con IA de su nieto pidiendo 2200 dólares para salir de prisión. Antes de que pagaran, el gerente del banco les ayudó a identificar la estafa.

Sólo en Estados Unidos, más de 36 mil casos de este tipo fueron registrados en 2022, de acuerdo con la comisión federal de comercio. No todas las víctimas tuvieron la suerte de ser alertadas a tiempo.

En otros temas – Un objeto volador no identificado fue grabado desde un avión en Colombia

Para clonar una voz, basta utilizar algunos segundos de un video o un audio en internet. Así es que los criminales pueden hacerlo fácilmente.

Ellos utilizan fragmentos de discurso para entrenar inteligencias artificiales simuladoras de voz que luego les permiten generar audios manipulados.

Una de las empresas que ofrecen esta tecnología ya está consciente de estos casos. A principios de año, ElevenLabs anunció que el recurso de simulación de voz dejaría de ser gratuito.

Puede ser de tu interés:

Compartir
Publicado por
pgadmin

POST RECIENTES

Una mujer que alimentaba mapaches tuvo que huir luego de que una enorme manada invadiera su casa

Esta mujer llevaba décadas alimentando a estos animales en EE.UU. sin pensar que las cosas…

3 días Hace

Las poblaciones de animales salvajes han disminuido en un 73% en los últimos 50 años, según informe

El planeta está registrando una pérdida de biodiversidad a niveles alarmantes debido a las acciones…

3 días Hace

Qué es la pteronofobia

La pteronofobia es el miedo irracional a ser cosquilleado con plumas. Descubre las causas, los…

3 días Hace