Acuerdo entre OpenAI y Anthropic para regular la Inteligencia Artificial
Regulación de la IA: Navegando en Territorio Inexplorado
9 de septiembre de 2024, 11:02 p. m. - Nicolas Vilar

En Washington, la IA está siendo puesta bajo la lupa. Forbes tuvo la oportunidad de conversar con Elizabeth Kelly, directora del AI Safety Institute, quien ya ha logrado un notable acuerdo entre dos gigantes de la industria tecnológica.
El impacto de la tecnología en nuestras vidas ha sido más veloz y complejo de lo que se esperaba. Mientras nadie anticipó la llegada de eBay, Amazon o Mercado Libre, la Inteligencia Artificial (IA) viene acompañada de advertencias desde el pasado. HAL 9000 y Skynet de la cultura popular anticiparon muchos de sus peligros.
De la Predicción de Caracteres a la IA Generativa
La IA Generativa, también conocida como GenAI, no fue realmente inventada, sino descubierta. Los investigadores trabajaban en sistemas de traducción y se encontraron con algo mucho más relevante. Ilya Sutskever, uno de los pioneros, descubrió que al añadir nodos a una red neuronal, el sistema comenzaba a tener una comprensión semántica imprevista.
En un paralelo con la naturaleza, las redes neuronales artificiales experimentaron algo similar a la evolución de la conciencia en los seres vivos. De hecho, Geoffrey Hinton, una figura clave en el desarrollo de la IA, comentó que al resolver problemas de predicción de texto, las redes debieron comprender temas más profundos de lo esperado.
La IA Generativa no se creó intencionalmente. Surgió mientras se intentaba solucionar otras cuestiones, pero sus implicaciones son vastas y complejas. El nacimiento de ChatGPT por OpenAI y la posterior competencia para crear mejores modelos de lenguaje generó una revolución tecnológica sin precedentes, en la cual los jugadores principales incluyen OpenAI, Anthropic, Google y Meta.
Seguridad en IA: Los Desafíos y el Rol de Elizabeth Kelly
La carrera por el desarrollo de IA ha traído a colación importantes cuestiones de seguridad. Es aquí donde entra Elizabeth Kelly, directora del AI Safety Institute, parte del Instituto Nacional de Estándares y Tecnología (NIST). Durante el AWS Public Sector Summit, Forbes tuvo la oportunidad de entrevistarse con ella.
La administración de Biden, a través del AI Safety Institute, busca regular la IA exigiendo evaluaciones antes de permitir su publicación. Sin embargo, esta regulación aún es voluntaria y carece de fuerza retroactiva. Kelly señala que uno de los primeros trabajos del instituto fue crear los tests necesarios para estas evaluaciones, una tarea encabezada en colaboración con compañías como Anthropic.
Alucinaciones en IA: Un Problema que Afecta a la Veracidad
Uno de los problemas más insidiosos de la GenAI son las denominadas "alucinaciones". Estas se refieren a respuestas generadas por IA que, aunque creíbles, son falsas. Anthropic ha trabajado de cerca con el instituto para abordar este tema, creando su modelo Claude con el objetivo de minimizar estos errores.
Un Acuerdo Histórico: OpenAI y Anthropic Unen Fuerzas
Recientemente, OpenAI y Anthropic firmaron un acuerdo con el AI Safety Institute para colaborar en la investigación y evaluación de seguridad. Este acuerdo permitirá al instituto acceder a nuevos modelos para su análisis, marcando un hito en el camino hacia una IA más segura.
Kelly enfatizó que este acuerdo es el comienzo de un viaje largo pero crucial. Las colaboraciones técnicas con estas empresas ayudarán a avanzar en la ciencia de la seguridad de la IA, promoviendo su desarrollo responsable.
Reflexión Final
El camino hacia la regulación eficiente de la IA apenas comienza. En medio de los rápidos avances tecnológicos, la seguridad y la ética deben estar en el centro del debate. Institutos como el de Elizabeth Kelly están abriendo caminos para asegurar que la
Top Stories