ChatGPT y Google Gemini fallan como buscadores: el peligro de las respuestas sin verificar
Un caso reciente de información falsa generada por IA nos recuerda que usar herramientas como ChatGPT para investigar hechos históricos o noticias puede resultar en graves errores.
2024-12-06T02:00:00.178Z - Felipe Sarmiento

No hay atajos para la verdad: la IA no puede reemplazar el trabajo humano de verificar información.
En un mundo cada vez más conectado, herramientas como ChatGPT y Google Gemini han revolucionado cómo interactuamos con la información. Estas tecnologías basadas en inteligencia artificial están diseñadas para responder preguntas de forma inmediata y amigable. Sin embargo, un reciente caso de desinformación pone en evidencia sus limitaciones y peligros.
El caso de los perdones presidenciales inventados
Todo comenzó con una afirmación hecha por la comentarista Ana Navarro-Cardenas, quien publicó en X (anteriormente Twitter) que el presidente Woodrow Wilson había perdonado a su supuesto cuñado, Hunter deButts. Sin embargo, una investigación reveló que no existe registro histórico de dicho perdón ni de un Hunter deButts como cuñado de Wilson. De hecho, el nombre parece haber sido inventado por ChatGPT, la herramienta que Navarro usó como fuente de información.
Esto no fue un caso aislado. Otros comentaristas también compartieron información falsa sobre presuntos perdones presidenciales, como que Jimmy Carter perdonó a su hermano Billy o que George H.W. Bush absolvió a su hijo Neil. Al revisar registros oficiales de clemencia y obituarios, se descubrió que estas afirmaciones eran completamente infundadas.
La fuente del problema: las IA "alucinando"
El término "alucinación" en el contexto de la IA describe cuando modelos como ChatGPT generan información falsa pero presentada con un aire de autoridad. Al consultar sobre los perdones presidenciales, ChatGPT ofreció respuestas incorrectas, incluyendo un supuesto perdón de Neil Bush por parte de su padre en el caso de Silverado Savings and Loan, algo que nunca ocurrió.
Peor aún, la IA citó otros casos irrelevantes, como el perdón de Gerald Ford a Richard Nixon, mencionando que “aunque no era un familiar directo”, formaba parte del contexto de la pregunta. Estas inconsistencias son comunes en herramientas generativas de IA y plantean dudas sobre su fiabilidad como fuentes de consulta.
Google Gemini y otros motores de IA también fallan
El problema no se limita a ChatGPT. Al usar Google Gemini, otro motor de IA, para investigar los mismos casos, también aparecieron afirmaciones falsas, como que Jimmy Carter había perdonado a su hermano Billy. Gemini incluso citó como fuente artículos de medios dudosos, perpetuando la desinformación en lugar de corregirla.
Por qué la IA no es un buscador confiable
Las herramientas de IA están diseñadas para responder preguntas directamente, lo que elimina el proceso tradicional de búsqueda en el que el usuario evalúa múltiples fuentes. Esto representa un problema porque:
Falta de verificación: La información presentada no siempre proviene de fuentes confiables.
Ausencia de contexto: Los resultados no muestran claramente cómo se llega a una conclusión.
Dependencia excesiva del usuario: Se espera que las personas verifiquen los datos por su cuenta, pero no todos tienen el conocimiento o la paciencia para hacerlo.
En este caso, se necesitaron investigaciones adicionales en registros oficiales, archivos de noticias y bases de datos históricas para refutar las afirmaciones de ChatGPT y Google Gemini. Este tipo de esfuerzo es algo que la mayoría de los usuarios no realiza.
El peligro de confiar ciegamente en las respuestas de IA
El uso casual de herramientas de IA para "investigar" ha llevado a errores que van desde lo anecdótico hasta lo grave. Por ejemplo, el Columbia Journalism Review encontró que ChatGPT fue incorrecto en el 75% de los casos al atribuir citas a medios específicos. Este tipo de fallos mina la confianza en estas herramientas y contribuye al creciente problema de la desinformación.
Una llamada de atención para los usuarios y desarrolladores
La tecnología que realmente sirve a las personas debe considerar cómo se comportan los usuarios en el mundo real. Esto significa crear herramientas que no solo brinden respuestas rápidas, sino que también ofrezcan transparencia y permitan una fácil verificación de las fuentes.
Mientras tanto, la responsabilidad recae en los usuarios para entender que estas herramientas no son infalibles. La búsqueda de la verdad sigue requiriendo trabajo humano: analizar, verificar y contextualizar la información.
La promesa de la inteligencia artificial es emocionante, pero casos como el de los perdones presidenciales falsos nos recuerdan que la tecnología no es un sustituto para el juicio crítico y la investigación rigurosa. En un ecosistema informativo saturado, donde las respuestas rápidas tienen prioridad sobre la precisión, es crucial que las herramientas que usamos no solo sean útiles, sino también confiables. Porque al final del día, ¿qué valor tiene una respuesta que no podemos creer?
Top Stories