Diseñan un sistema innovador para averiguar si una grabación de voz es real o se ha generado mediante Inteligencia Artificial
Investigadores de la Universidad de Granada, expertos en sistemas conversacionales y tecnologías del habla y del procesamiento del lenguaje, desarrollan una herramienta de enorme utilidad para combatir la desinformación y las fake news
Investigadores de la Universidad de Granada (UGR), pertenecientes al departamento de Lenguajes y Sistemas Informáticos, han diseñado un sistema pionero en el mundo que permite discernir si un audio de voz es real o está generado mediante algoritmos de Inteligencia Artificial (IA), un método de enorme utilidad para combatir la desinformación y las fake news.
Este trabajo, realizado en el marco de la Cátedra RTVE-UGR, ha sido presentado esta mañana en una rueda de prensa celebrada en el Hospital Real de Granada, en la que han participado los investigadores de la UGR Zoraida Callejas, David Griol y Daniel Calderón, expertos en sistemas conversacionales y tecnologías del habla y del procesamiento del lenguaje, y el rector Pedro Mercado.
En la actualidad, los avances en el uso de redes neuronales profundas para la síntesis de audio están permitiendo obtener voces sintéticas (esto es, generadas mediante IA) cada vez más realistas. Esto tiene grandes ventajas, pues permite dotar de voces más inteligibles a los sistemas automáticos (por ejemplo, lectores de texto, asistentes virtuales, robots…), así como controlar sus características, haciéndolas más expresivas y diversas (con aplicaciones por ejemplo en la producción de contenido multimedia).
Sin embargo, la síntesis de habla también se puede utilizar para crear o manipular grabaciones de audio para fines maliciosos, como la suplantación de identidad en estafas telefónicas o la generación de noticias falsas.
Hasta ahora, el audio ha sido un problema menor en las redacciones en comparación con otros tipos de fake, como las fotografías o los vídeos. Sin embargo, en los últimos dos años está ganando terreno, por lo que es preciso contar con herramientas que ayuden a la detección de audios falsos y puedan servir a los periodistas como una nueva fuente para la verificación de noticias.
La investigación dirigida por los profesores Zoraida Callejas y David Griol que se ha presentado esta mañana se ha realizado en el contexto de la Cátedra RTVE-UGR, en la que ambos investigadores participan junto con RTVE y la empresa Monoceros Labs.
Las líneas de investigación mencionadas se han aplicado en este caso a la verificación de audios para combatir la desinformación. «Hemos generado una herramienta que integra soluciones propias y de terceros para discernir si un audio es real o está generado con algoritmos de inteligencia artificial —han explicado los investigadores de la UGR—. Una de las novedades que introduce esta herramienta es que no solo integra modelos generales, sino también modelos específicos generados en la UGR para voces de personalidades que son objetivo frecuente de desinformación».
No en vano, durante la rueda de prensa los científicos han puesto como ejemplo voces clonadas mediante técnicas de IA para la conversión y clonación de voz de Monoceros pertenecientes al Rey Felipe VI; el presidente del Gobierno, Pedro Sánchez, o la vicepresidenta Yolanda Díaz. «Nuestro objetivo no es generar estas voces sintéticas de manera artificial, sino entrenar a nuestra IA mediante estas voces generadas por nosotros para que así el sistema pueda identificar si una voz es falsa o no con una alta precisión», han destacado los investigadores de la UGR.
Actualmente se está trabajando para ir más allá de la verificación y desarrollar herramientas para los periodistas basadas en IA conversacional, que proporcionen interactividad, accesibilidad y personalización de contenidos informativos.