El uso de IA en interrogatorios genera falsos recuerdos, según estudio del MIT
Un estudio del MIT revela que los sistemas de inteligencia artificial pueden inducir falsos recuerdos al interrogar a testigos de crímenes, planteando serias dudas sobre su uso en investigaciones legales. Los resultados muestran que los chatbots amplifican la creación de recuerdos erróneos, afectando la precisión de los testimonios y la confianza de los testigos en lo que creen recordar.
2024-10-24T16:39:25.310Z - Felipe Sarmiento

La IA generativa amplifica los recuerdos falsos, haciendo que los testigos confíen más en eventos que nunca sucedieron.
¿Estamos listos para dejar que la IA entreviste a testigos de crímenes? Un reciente estudio del MIT Media Lab sugiere que, al menos por ahora, esta podría no ser la mejor idea. En un experimento que involucró a 200 participantes, los investigadores descubrieron que los chatbots de IA generativa tienden a inducir la creación de falsos recuerdos durante las entrevistas, lo que podría comprometer el valor de los testimonios.
Los participantes, que vieron videos de crímenes simulados, fueron divididos en grupos y entrevistados con distintos métodos, incluidos cuestionarios y chatbots. Sorprendentemente, los que interactuaron con la IA eran hasta tres veces más propensos a recordar detalles falsos. Preguntas engañosas como "¿De qué color era el arma?" llevaron a los testigos a fabricar recuerdos, lo que refuerza una preocupación clave: las inteligencias artificiales aún no son fiables para manejar situaciones tan delicadas.
Lo más inquietante es que, una semana después del experimento, la confianza de los participantes en estos falsos recuerdos había crecido, especialmente entre quienes interactuaron con el chatbot. Esto plantea un enorme reto ético en el uso de IA para la recopilación de pruebas y entrevistas en procesos judiciales. Si bien la tecnología sigue evolucionando, su capacidad para "alucinar" y presentar información falsa podría ser devastadora en el sistema legal, donde la verdad es esencial.
Aunque la inteligencia artificial ha mostrado un potencial inmenso en muchos campos, este estudio resalta la importancia de tener cautela antes de integrarla en áreas donde los errores pueden tener consecuencias graves. Al fin y al cabo, la memoria humana ya es lo suficientemente frágil sin la ayuda de un chatbot que refuerce los detalles equivocados.
Top Stories