Tecnologia

Audios para entrenar IA revelan sesgos, insultos y problemas de copyright

Un análisis exhaustivo de 680.000 horas de audios utilizados para entrenar inteligencias artificiales revela contenido ofensivo, estereotipos de género y racismo, además de graves violaciones a los derechos de autor.

2024-12-10T10:25:00.676Z - Felipe Sarmiento

photo

La voz, como dato biométrico, enfrenta los mismos problemas legales que la imagen o el texto generados por IA.

Mirá, cuando pensábamos que la inteligencia artificial (IA) estaba lista para revolucionar el mundo, un nuevo informe nos sacude la alfombra. Resulta que las bases de datos utilizadas para entrenar estas tecnologías están plagadas de machismo, racismo y una montaña de infracciones de derechos de autor. ¿Te sorprende? No debería, porque, como dicen los expertos, si alimentás un sistema con datos problemáticos, lo único que obtenés es una máquina replicando esos mismos prejuicios.

El estudio, liderado por William Agnew de la Universidad Carnegie Mellon, analizó más de 680.000 horas de audio de plataformas como AudioSet, Free Music Archive y videos de YouTube. Entre las perlas que encontraron, están términos como "perra" asociados a mujeres, o "hombre" vinculado a conceptos como guerra e historia. ¡Un quilombo total! Pero no solo eso: en estas bases había términos racistas y discriminatorios hacia la diversidad sexual, dejando fuera de escena a voces queer y otros colectivos.

El problema de los sesgos

Robin Netzorg, investigadora del habla, explica que los conjuntos de datos no solo reflejan prejuicios sociales, sino que los amplifican. Esto se traduce en inteligencias artificiales que perpetúan una realidad distorsionada. Es como enseñarle a un nene a ser machista: el pibe lo repite sin darse cuenta.

Julia Barnett, otra experta detrás del estudio, señala que el problema es que muchos asumen que los datos representan a toda la humanidad, cuando en realidad no lo hacen. Esto puede derivar en modelos de IA que afectan desde la interacción diaria hasta decisiones más delicadas en medicina o justicia.

Más allá de los sesgos: el copyright

Acá entra en juego otro tema caliente: los derechos de autor. Al menos el 35% de los audios analizados contenían material protegido. Y no estamos hablando solo de canciones: también grabaciones de voz o sonidos que forman parte de la identidad de alguien. El abogado Borja Adsuara aclara que la voz, al igual que la huella dactilar, es un dato biométrico y tiene un nivel de protección alto.

Un ejemplo resonante fue el escándalo con Scarlett Johansson, cuando un chatbot imitó su tono de voz sin permiso. O los casos de músicos como Bad Bunny, cuyas voces se usaron para generar canciones que jamás interpretaron. No es solo una cuestión ética, es un delito en potencia.

¿Qué hacemos con todo esto?

Los especialistas coinciden en que el problema no es tanto la IA, sino cómo la entrenamos. Andrés Masegosa, experto en inteligencia artificial, sostiene que la tecnología simplemente replica patrones. Si el patrón es tóxico, el resultado también lo será. “El desafío está en filtrar los datos y evitar los sesgos, pero hacerlo tiene su precio: los modelos pierden precisión”, comenta.

Además, auditar conjuntos de datos de audio es mucho más complejo que trabajar con texto o imágenes, porque requieren más almacenamiento y potencia de procesamiento. Aún así, si queremos que estas herramientas sean útiles y seguras, es fundamental que sean éticas.

El futuro del audio generativo

Aunque las posibilidades son infinitas, desde mejorar la accesibilidad hasta revolucionar la música, las bases de datos problemáticas son una bomba de tiempo. Las implicaciones legales y sociales apenas están asomando la cabeza, y es urgente regular cómo se recopilan y usan estos datos. Porque, al final del día, la voz no solo es sonido, es identidad.

Top Stories