IMPACTO SOCIAL

La voz de una adolescente fue clonada con una IA en un caso de extorsión en Estados Unidos

Imagina que un familiar te llama desde un número desconocido para decirte que está en la cárcel y que necesita dinero para pagar la fianza. Bueno, esa es una de las historias más usadas por extorsionadores telefónicos, y ahora están utilizando una voz clonada con IA para hacerlo más creíble.

En un caso reciente ocurrido en Arizona, los delincuentes utilizaron la voz clonada de una adolescente que estaba de viaje y le llamaron a su madre haciéndose pasar por secuestradores. Le exigieron un millón de dólares como “rescate”.

Mira también – Una tatuadora se negó a tatuar «propiedad de Víctor» por considerarlo machista

“No dudé ni por un segundo que fuera ella”, contó Jennifer DeStefano a WKYT. «Es la parte perturbadora que realmente me sacudió”.

Cuando la mujer dijo que no tenía esa suma, los extorsionadores redujeron la cifra a 50 mil dólares. Por suerte, ella no hizo la transferencia porque la policía le avisó que había localizado a su hija, a salvo en un resort de ski.

Mira también – Adolescentes vieron ‘American Pie’ por primera vez y la calificaron como una película profundamente machista

No es un hecho aislado

En otro caso, una pareja de ancianos recibió una llamada en la que escucharon la voz clonada con IA de su nieto pidiendo 2200 dólares para salir de prisión. Antes de que pagaran, el gerente del banco les ayudó a identificar la estafa.

Sólo en Estados Unidos, más de 36 mil casos de este tipo fueron registrados en 2022, de acuerdo con la comisión federal de comercio. No todas las víctimas tuvieron la suerte de ser alertadas a tiempo.

En otros temas – Un objeto volador no identificado fue grabado desde un avión en Colombia

Para clonar una voz, basta utilizar algunos segundos de un video o un audio en internet. Así es que los criminales pueden hacerlo fácilmente.

Ellos utilizan fragmentos de discurso para entrenar inteligencias artificiales simuladoras de voz que luego les permiten generar audios manipulados.

Una de las empresas que ofrecen esta tecnología ya está consciente de estos casos. A principios de año, ElevenLabs anunció que el recurso de simulación de voz dejaría de ser gratuito.

Puede ser de tu interés:

Compartir
Publicado por
pgadmin

POST RECIENTES

Disney decidió retirar la historia de un personaje transgénero en la nueva serie animada ‘Win or Lose’

La compañía considera que hay padres que prefieren escoger la forma y el momento para…

35 mins Hace

ZONA MACO: la plataforma internacional de arte tendrá una nueva edición entre el 5 y 9 de febrero en CDMX

La edición 21 del evento tendrá un programa dinámico de arte contemporáneo, diseño, fotografía y…

1 hora Hace

Un historiador de arte encontró un cuadro perdido en una escena de Stuart Little y ahora se vendió por 226 mil 500 euros

Una asistente de cine había comprado la pintura en una tienda de antigüedades en California,…

23 horas Hace