A aplicação permitirá que os usuários façam perguntas com a capacidade de chamar um humano quando necessário. Vamos detalhar cada passo do processo, desde a configuração inicial até a funcionalidade completa, com ênfase na capacidade de chamada humana.

1. Instalação do ambiente

Para o ambiente estou utilizando o conda com Python 3.8

https://conda.io/projects/conda/en/latest/user-guide/install/index.html

Para criar o ambiente utilize os comandos abaixo

conda create --name llm-app python=3.8
conda activate llm-app

2. Instalação das Bibliotecas Necessárias

Para iniciar, precisamos instalar algumas bibliotecas Python essenciais. Execute os seguintes comandos no seu terminal para realizar a instalação:

pip install openai
pip install streamlit
pip install mem0ai

3. Configuração Inicial

Importação de Bibliotecas

Para começar, vamos importar as bibliotecas necessárias. Estas bibliotecas são essenciais para integrar a API da OpenAI, criar a interface com Streamlit e gerenciar a memória vetorial.

import os
import requests
import streamlit as st

from datetime import datetime
from openai import OpenAI
from mem0 import Memory

client = OpenAI()

Configuração da Memória

Em seguida, configuramos a memória vetorial utilizando qdrant como o provedor. A memória vetorial é importante para armazenar e recuperar informações relevantes que o modelo de linguagem possa usar para fornecer respostas contextualmente apropriadas.