Estafas de voz AI, la creciente disponibilidad de tecnologías de inteligencia artificial (IA) ha elevado las preocupaciones sobre el uso indebido de estas herramientas para perpetrar estafas de voz. Con algoritmos de “deepfake” cada vez más sofisticados, es posible crear grabaciones de voz extremadamente realistas, lo que representa un riesgo importante para la ciberseguridad y la privacidad de las personas.
El peligro de la manipulación de la voz con IA
Una vez que una copia de voz está en manos equivocadas, las posibilidades son alarmantes. Un algoritmo de deepfake podría permitir a cualquiera que posea los datos hacer que “tú” digas lo que quieran. Esto se logra mediante la manipulación de grabaciones de voz para imitar la voz de alguien de manera convincente. En la práctica, esto puede ser tan sencillo como escribir un texto y hacer que una computadora lo diga en voz alta como si fuera la voz de una persona real. La proliferación de esta tecnología de deepfake plantea un riesgo significativo en términos de desinformación. Las grabaciones de voz falsas pueden ser utilizadas para influir en la opinión pública a nivel internacional o nacional, como se ha visto con videos manipulados de figuras públicas.
Sin embargo, el peligro no se limita a la desinformación a gran escala. También existe una creciente tendencia de estafas telefónicas con IA que aprovechan esta tecnología. En estas llamadas, los estafadores utilizan grabaciones de voz falsas para engañar a las personas y robar información personal o dinero.
Un nuevo nivel de estafas telefónicas
Las estafas telefónicas siempre han sido un problema, pero la disponibilidad de grabaciones de voz realistas hace que estas estafas sean mucho más convincentes y peligrosas. Anteriormente, las llamadas de estafa o “phishing” eran relativamente fáciles de identificar, ya que las personas que realizaban las llamadas a menudo formulaban preguntas inusuales y solicitaban información que una organización legítima no requeriría.
Ahora, imagine que la voz al otro lado del teléfono suena exactamente como un amigo o un ser querido. Esto inyecta un nivel completamente nuevo de complejidad y pánico para el destinatario. Un ejemplo reciente destacado por la cadena CNN involucra a una madre que recibió una llamada de un número desconocido. Cuando contestó el teléfono, la voz en el otro extremo parecía ser la de su hija, quien supuestamente había sido secuestrada y pedía un rescate. En realidad, la hija estaba a salvo, pero los estafadores habían creado una falsificación de su voz.
Este tipo de estafas de voz AI no es nuevo, pero la tecnología de IA ha llevado esta táctica a un nuevo nivel de realismo. Los estafadores pueden imitar a la perfección las voces de seres queridos, lo que dificulta la identificación de la estafa.
Cómo protegerse contra las estafas de voz con IA
Dado que la tecnología de IA continúa avanzando, es esencial que las personas sean más cautelosas y escépticas en sus interacciones telefónicas. Si alguien recibe una llamada inesperada de un ser querido que solicita dinero o realiza solicitudes inusuales, es recomendable confirmar su identidad llamándoles o enviándoles un mensaje de texto.
A medida que las capacidades de la IA siguen expandiéndose, las líneas entre la realidad y la ficción se difuminan. Aunque es poco probable que podamos detener por completo esta tecnología, la precaución y la verificación de la información se vuelven aún más cruciales en un mundo de crecientes estafas de voz con IA. La ciberseguridad y la protección de la privacidad son temas que deben abordarse con seriedad en la era de la tecnología avanzada.
Conoce aquí más información relevante.
Revisa todo lo que sucede aquí.