Tecnologia

Chatbots como Google y Bing generan controversia por respuestas racistas

Al consultar a chatbots de IA sobre el IQ en distintos países, algunos sistemas ofrecieron respuestas cargadas de sesgos y basadas en teorías desacreditadas de superioridad racial. Este incidente plantea preocupaciones sobre cómo se construyen y entrenan estos modelos de inteligencia artificial.

2024-10-28T14:18:11.807Z - Michael Nyman

photo

Las respuestas de los chatbots reflejan cómo los sesgos históricos pueden impactar en la tecnología actual.

Los sistemas de inteligencia artificial se desarrollan con el propósito de mejorar la precisión y rapidez en el acceso a la información. Sin embargo, esta búsqueda de “verdades” también trae consigo desafíos éticos y técnicos. En una reciente investigación, chatbots de plataformas como Google, Microsoft y Perplexity dieron respuestas que reflejan sesgos racistas y teorías desacreditadas sobre el cociente intelectual (IQ) de diversas nacionalidades, exponiendo un problema crucial en el campo de la IA.

Al preguntar sobre el IQ en países específicos, los chatbots citaron estudios realizados por el psicólogo Richard Lynn, cuya investigación ha sido criticada por basarse en muestras sesgadas que refuerzan estereotipos raciales. Esta situación revela que las IA pueden replicar y amplificar prejuicios históricos debido a la falta de un filtrado ético adecuado y la dependencia de datos obsoletos. Si bien estas herramientas intentan dar respuestas rápidas, es necesario cuestionar la transparencia y la responsabilidad en sus fuentes de información.

Google, ante la reacción de los usuarios, reconoció el problema y afirmó que sus equipos trabajan para mejorar sus sistemas y evitar que respuestas inadecuadas o inexactas vuelvan a ocurrir. Sin embargo, especialistas sostienen que la influencia de datos sesgados no es solo una falla de la IA, sino también de un sistema académico que ha validado investigaciones con prejuicios. Este caso subraya la necesidad de una IA inclusiva y regulada, que sea capaz de ofrecer respuestas fundamentadas en fuentes éticas y científicamente rigurosas.

La IA es tan imparcial como los datos con los que se le entrena. Este caso nos invita a reflexionar sobre cómo la tecnología, en su intento de “automatizar la verdad”, también puede reforzar prejuicios que nos dividen en lugar de unirnos.

Top Stories