A aplicação permitirá que os usuários façam perguntas com a capacidade de chamar um humano quando necessário. Vamos detalhar cada passo do processo, desde a configuração inicial até a funcionalidade completa, com ênfase na capacidade de chamada humana.
Para o ambiente estou utilizando o conda com Python 3.8
https://conda.io/projects/conda/en/latest/user-guide/install/index.html
Para criar o ambiente utilize os comandos abaixo
conda create --name llm-app python=3.8
conda activate llm-app
Para iniciar, precisamos instalar algumas bibliotecas Python essenciais. Execute os seguintes comandos no seu terminal para realizar a instalação:
pip install openai
pip install streamlit
pip install mem0ai
Para começar, vamos importar as bibliotecas necessárias. Estas bibliotecas são essenciais para integrar a API da OpenAI, criar a interface com Streamlit e gerenciar a memória vetorial.
import os
import requests
import streamlit as st
from datetime import datetime
from openai import OpenAI
from mem0 import Memory
client = OpenAI()
Em seguida, configuramos a memória vetorial utilizando qdrant
como o provedor. A memória vetorial é importante para armazenar e recuperar informações relevantes que o modelo de linguagem possa usar para fornecer respostas contextualmente apropriadas.