La tecnología de clonación de voz avanza rápidamente, pero también genera preocupaciones por posibles usos indebidos
La inteligencia artificial (IA) está revolucionando numerosos campos, y la tecnología de clonación de voz no es una excepción. Herramientas avanzadas permiten replicar voces con notable precisión, lo que presenta tanto oportunidades como riesgos. Recientemente, la actriz Scarlett Johansson se ha visto envuelta en una polémica sobre el uso no autorizado de su voz en el 'chatbot' ChatGPT de OpenAI, lo que subraya las preocupaciones sobre el uso indebido de esta tecnología.
La clonación de voz mediante IA utiliza algoritmos y aprendizaje automático para crear copias sintéticas de cualquier voz. Estas herramientas pueden replicar el habla de una persona a partir de muestras de audio muy breves, logrando resultados extremadamente realistas. A diferencia de las voces sintéticas generadas por tecnologías de conversión de texto a voz, la clonación de voz se basa en grabaciones reales, lo que permite una interpretación fiel del tono, la emoción y el contexto acústico.
Herramientas de Clonación de Voz: Innovación y Funcionalidad
Diversas herramientas impulsadas por IA facilitan la clonación de voz. Por ejemplo, VALL-E de Microsoft puede imitar una voz con solo tres segundos de grabación, preservando incluso las emociones y el entorno acústico. OpenAI también ha desarrollado Voice Engine, un modelo capaz de crear voces personalizadas y naturales con una única muestra de audio de 15 segundos. Estas herramientas tienen múltiples aplicaciones, desde asistentes de voz personalizados hasta el marketing y la traducción de contenido, refiere Europa Press.
Sin embargo, la tecnología de clonación de voz también plantea serias preocupaciones. La posibilidad de suplantación de identidad a través de la voz es un riesgo real, como lo demuestra el caso de Scarlett Johansson. La actriz está buscando respuestas legales sobre si OpenAI utilizó su voz sin su consentimiento para crear la voz de Sky en ChatGPT. Aunque OpenAI asegura que la voz de Sky pertenece a otra actriz, Johansson afirma que la voz es inquietantemente similar a la suya y está decidida a esclarecer el asunto.
Profesionales de la voz en alerta
La aparición de estas tecnologías pone en alerta a los profesionales de la voz, quienes temen ser reemplazados. El Sindicato de Actores de Doblaje y Voice Talents de Madrid ha solicitado que toda comunicación oral generada por IA sea claramente identificada como tal. Además, han instado a los desarrolladores a incluir efectos de sonido que hagan identificable el contenido generado por IA, para evitar confusiones entre los usuarios.
Como solución intermedia, han surgido iniciativas que combinan IA y trabajo humano. Por ejemplo, la empresa Speechless ha lanzado una IA híbrida que permite a los desarrolladores de videojuegos utilizar voces basadas en grabaciones reales de actores de doblaje, quienes reciben una comisión cada vez que sus voces son utilizadas. Esta propuesta busca equilibrar el uso de tecnología avanzada con la protección y el reconocimiento del trabajo de los profesionales de la voz.
Suplantar identidades y fomentar comportamientos maliciosos
La tecnología de clonación de voz, una de las innovaciones más avanzadas de la inteligencia artificial (IA), está siendo utilizada con fines indebidos, incluyendo la suplantación de identidades de personalidades famosas para promover comportamientos de odio. Este fenómeno ha generado preocupaciones sobre la ética y la seguridad de esta tecnología.
El año pasado, la 'startup' tecnológica ElevenLab denunció un uso indebido de su tecnología de clonación de voz. Surgieron una serie de clips de audio en los que se utilizaban las voces clonadas de celebridades como Joe Rogan, Ben Shapiro y Emma Watson para difundir contenidos racistas y violentos. La investigación realizada por Motherboard reveló que estos audios se publicaron inicialmente en la plataforma 4Chan. En respuesta, ElevenLab anunció la implementación de medidas para prevenir este tipo de abusos, como la verificación de derechos de autor de la voz mediante una muestra de texto.
Estafas y 'Deepfakes': Un peligro creciente en las redes sociales
La suplantación de voces no es un fenómeno aislado y se está volviendo cada vez más común, especialmente en redes sociales como Facebook e Instagram. Estas plataformas son objetivos atractivos para los estafadores debido a su amplia base de usuarios. Según una encuesta realizada por las compañías Voicebot y Pindrop, más del 57 por ciento de los usuarios expresan su preocupación por la creciente exposición a este tipo de amenazas.
En una era en la que los usuarios deben lidiar constantemente con 'deepfakes', información falsa y suplantaciones de voz, es fundamental ser cauteloso al consumir contenido en línea. Las voces clonadas pueden presentar inconsistencias en el tono y patrones irregulares, lo que puede ser una señal de falsificación. Evaluar las fuentes y examinar el contexto del contenido son prácticas recomendadas para evitar caer en estas trampas. Además, es prudente desconfiar de publicaciones que ofrezcan recompensas monetarias sospechosamente altas.
Medidas y Precauciones
La proliferación de tecnologías de clonación de voz y su uso indebido subraya la necesidad de desarrollar estrategias efectivas para combatir estos problemas. Las compañías tecnológicas deben implementar salvaguardias robustas y los usuarios deben ser educados sobre cómo identificar y protegerse contra estas amenazas.
El caso de ElevenLab y las preocupaciones expresadas por los usuarios reflejan una realidad en la que la tecnología avanza rápidamente, pero también lo hacen las tácticas maliciosas. Es esencial encontrar un equilibrio entre el aprovechamiento de los beneficios de la IA y la mitigación de sus riesgos para asegurar un entorno digital seguro y ético.