IMPACTO SOCIAL

La voz de una adolescente fue clonada con una IA en un caso de extorsión en Estados Unidos

Imagina que un familiar te llama desde un número desconocido para decirte que está en la cárcel y que necesita dinero para pagar la fianza. Bueno, esa es una de las historias más usadas por extorsionadores telefónicos, y ahora están utilizando una voz clonada con IA para hacerlo más creíble.

En un caso reciente ocurrido en Arizona, los delincuentes utilizaron la voz clonada de una adolescente que estaba de viaje y le llamaron a su madre haciéndose pasar por secuestradores. Le exigieron un millón de dólares como “rescate”.

Mira también – Una tatuadora se negó a tatuar «propiedad de Víctor» por considerarlo machista

“No dudé ni por un segundo que fuera ella”, contó Jennifer DeStefano a WKYT. «Es la parte perturbadora que realmente me sacudió”.

Cuando la mujer dijo que no tenía esa suma, los extorsionadores redujeron la cifra a 50 mil dólares. Por suerte, ella no hizo la transferencia porque la policía le avisó que había localizado a su hija, a salvo en un resort de ski.

Mira también – Adolescentes vieron ‘American Pie’ por primera vez y la calificaron como una película profundamente machista

No es un hecho aislado

En otro caso, una pareja de ancianos recibió una llamada en la que escucharon la voz clonada con IA de su nieto pidiendo 2200 dólares para salir de prisión. Antes de que pagaran, el gerente del banco les ayudó a identificar la estafa.

Sólo en Estados Unidos, más de 36 mil casos de este tipo fueron registrados en 2022, de acuerdo con la comisión federal de comercio. No todas las víctimas tuvieron la suerte de ser alertadas a tiempo.

En otros temas – Un objeto volador no identificado fue grabado desde un avión en Colombia

Para clonar una voz, basta utilizar algunos segundos de un video o un audio en internet. Así es que los criminales pueden hacerlo fácilmente.

Ellos utilizan fragmentos de discurso para entrenar inteligencias artificiales simuladoras de voz que luego les permiten generar audios manipulados.

Una de las empresas que ofrecen esta tecnología ya está consciente de estos casos. A principios de año, ElevenLabs anunció que el recurso de simulación de voz dejaría de ser gratuito.

Puede ser de tu interés:

Compartir
Publicado por
pgadmin

POST RECIENTES

Terraplanismo: ¿por qué hay personas que siguen creyendo que la Tierra es plana?

Las redes sociales y plataformas de video han servido para mantener viva la teoría de…

6 horas Hace

Wally es un caimán de apoyo emocional, le fue robado a su humano y liberado en un pantano en EE.UU.

Joie Henney denunció que el caimán fue sacado de un estanque por unos bromistas y…

10 horas Hace

VIVIR AQUÍ: los aumentos de los alquileres están provocando gentrificación en Barcelona

La serie de PlayGround VIVIR AQUÍ estuvo en Gràcia (Barcelona) para conocer la forma como…

1 día Hace