Aunque no se sabe aún cuándo estará disponible esta nueva función de mitigación, es claro que los americanos están trabajando para mejorar la precisión de sus modelos de IA.
¿Te has encontrado alguna vez con respuestas extrañas o errores fácticos al interactuar con Copilot, el chatbot de Microsoft? No eres el único. Desde su lanzamiento en febrero de 2023, el modelo de IA generativa ha generado respuestas que han sido calificadas de “alucinaciones”. Estas respuestas, que pueden ser creativas pero no necesariamente precisas, han llevado a Microsoft a implementar límites estrictos en los turnos de chat para reducir la cantidad de errores.
Pero, ¿qué son estas “alucinaciones” exactamente? Según Microsoft, se producen cuando el modelo de IA cambia o agrega datos que no están fundamentados en la realidad. Esto puede ser beneficioso para respuestas creativas, como pedirle a un chatbot que escriba una historia, pero no es lo que se busca cuando se necesita obtener respuestas precisas a preguntas.
Respuestas más precisas gracias a Copilot
Para abordar el problema, Microsoft ha estado trabajando en herramientas que ayuden a los modelos de IA a apegarse a los datos fundamentados. Una de ellas es la generación aumentada de recuperación, una técnica que agrega conocimiento adicional a un modelo sin tener que volver a entrenarlo. De esta manera, Copilot puede ofrecer respuestas más precisas y relevantes, junto con citas que permiten a los usuarios buscar y verificar información.
Los ingenieros de la compañía pasaron meses poniendo a tierra el modelo de Copilot con datos de búsqueda de Bing a través de la generación aumentada de recuperación, una técnica que agrega conocimiento adicional a un modelo sin tener que volver a entrenarlo. Las respuestas, el índice y los datos de clasificación de Bing ayudan a Copilot a ofrecer respuestas más precisas y relevantes, junto con citas que permiten a los usuarios buscar y verificar información.
Microsoft también está desarrollando una nueva función de mitigación para bloquear y corregir instancias sin conexión a tierra en tiempo real. Cuando se detecta un error de conexión a tierra, la función reescribirá automáticamente la información en función de los datos.
Mucho mejor si trabajas en Azure
Además, Microsoft ofrece a sus clientes externos el servicio Azure OpenAI, que incluye una característica llamada On Your Data. Esta herramienta permite a las empresas y organizaciones acceder a sus datos internos con sus aplicaciones de IA, lo que les permite tener más control sobre la precisión de las respuestas.
Pero, ¿cómo se puede detectar si una respuesta es “alucinación” o no? pues los de Redmond están desarrollando una un middleware que funcione en tiempo real y que permite detectar qué tan fundamentadas están las respuestas de los chatbots. En un futuro cercano, la empresa planea lanzar una función de mitigación que bloqueará y corregirá instancias sin conexión a tierra en tiempo real. Cuando se detecte un error de conexión a tierra, la función reescribirá automáticamente la información en función de los datos.