La búsqueda de la verdad en la inteligencia artificial es un desafío complejo, pero con la ayuda de DataGemma, Google lo tiene algo más fácil.
La inteligencia artificial ha avanzado significativamente en los últimos años, pero uno de los mayores obstáculos que enfrenta es la falta de precisión en las respuestas proporcionadas por los modelos de lenguaje de gran tamaño (LLM). Estos modelos, que son fundamentales para las funciones de IA actuales, no pueden razonar y no están particularmente vinculados a la verdad. Esto lleva a que los LLM devuelvan respuestas incorrectas, prácticamente inventadas, llamadas “alucinaciones”.
Para abordar este problema, Google ha presentado un conjunto de modelos abiertos llamado DataGemma, diseñado para mejorar las capacidades de los LLM para discernir la verdad de la ficción. DataGemma utiliza dos estrategias principales para combatir las mentiras de la IA: generación intercalada de recuperación (RIG) y generación aumentada de recuperación (RAG).
La importancia de los datos precisos
Como líder mundial en la recopilación y catalogación de datos, Google puede proporcionar a los LLM datos precisos mejor que nadie. El gráfico de conocimiento de Google, llamado Data Commons, es su última arma contra la inexactitud del lenguaje. Data Commons es una red global de datos que incluye relaciones entre los muchos puntos y cómo interactúan entre ellos.
Aprovechar hechos interconectados con instrucciones de alta utilidad es una forma eficaz de refinar los modelos de lenguaje.
Cómo funciona DataGemma
DataGemma emplea RIG y RAG para combatir las mentiras de la IA. Mediante RIG, un modelo de IA recibe una solicitud, genera una respuesta probable y luego la compara con una base de datos de datos y estadísticas verificadas. RIG restringe parcialmente la toma de decisiones de un modelo a las probabilidades con las que se entrenó originalmente. En RAG, un modelo de lenguaje recopila datos relevantes de su gráfico de conocimiento asignado y evalúa ese conjunto de datos para obtener una respuesta.
Lo que hace que DataGemma sea tan especial es que utiliza los recursos de Google. RIG y RAG no son nuevos, y varios modelos de IA utilizan uno o ambos de alguna manera. Sin embargo, la diferencia es que DataGemma está operado por uno de los mayores acaparadores de datos de la historia. Google apenas está comenzando a utilizar el enfoque combinado de RIG y RAG para navegar por el gráfico de Data Commons disponible públicamente, pero se ha comprometido a compartir su investigación para beneficiar a la industria del aprendizaje automático en su conjunto.
La iniciativa de DataGemma podría marcar una enorme diferencia en la precisión de LLM en el futuro. Ya sea que pienses que la IA es la salvadora de la humanidad o un robot de servicio al cliente sobrevalorado, unas respuestas LLM más veraces solo pueden ser beneficiosas.