RAG: Cómo hablar con sus datos usando Langchain, Python y Streamlit

Authors

Speaker Image

Description

Los modelos de lenguajes grandes (LLM) han demostrado una capacidad impresionante para almacenar e implementar un vasto conocimiento en respuesta a las consultas de los usuarios. Si bien esto ha permitido la creación de potentes sistemas de inteligencia artificial como ChatGPT, comprimir el conocimiento mundial de esta manera tiene dos limitaciones clave. En primer lugar, el conocimiento de un LLM es estático, es decir, no se actualiza a medida que hay nueva información disponible. En segundo lugar, los LLM pueden tener una “comprensión” insuficiente de información especializada y de nicho que no fue destacada en sus datos de capacitación. Estas limitaciones pueden dar lugar a respuestas de modelo no deseadas (e incluso ficticias) a las consultas de los usuarios. Utilizando la técnica generación aumentada de recuperación o RAG, es una forma de mitigar estas limitaciones, aumentando un modelo a través de una base de conocimientos especializada y mutable, brindando a los LLM previamente capacitados acceso a información muy específica como contexto adicional al responder nuestras preguntas, especialmente con nuestros datos (Bases de datos o archivos PDF), esto permite la creación de sistemas de IA más robustos y adaptables. En esta charla, se analizaré la teoría y la práctica de la implementación sobre un LLM con capacidades RAG adicionales utilizando las bibliotecas de transformadores Hugging Face, LangChain y la base de datos vectorial.