-
Notifications
You must be signed in to change notification settings - Fork 0
/
app.py
128 lines (98 loc) · 3.64 KB
/
app.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
from flask import Flask,render_template, request, Response
import google.generativeai as genai
from dotenv import load_dotenv
import os
from time import sleep
from helper import carrega, salva
from selecionar_persona import personas, selecionar_persona
from gerenciar_historico import remover_mensagens_mais_antigas
import uuid
from gerenciar_imagem import gerar_imagem_gemini
load_dotenv()
CHAVE_API_GOOGLE = os.getenv("GEMINI_API_KEY")
MODELO_ESCOLHIDO = "gemini-1.5-flash"
genai.configure(api_key=CHAVE_API_GOOGLE)
app = Flask(__name__)
app.secret_key = 'alura'
contexto = carrega("dados/musimart.txt")
caminho_imagem_enviada = None
UPLOAD_FOLDER = "imagens_temporarias"
def criar_chatbot():
personalidade = "neutro"
prompt_do_sistema = f"""
# PERSONA
Você é um chatbot de atendimento a clientes de um e-commerce.
Você não deve responder perguntas que não sejam dados do ecommerce informado!
Você deve utilizar apenas dados que estejam dentro do 'contexto'
# CONTEXTO
{contexto}
# PERSONALIDADE
{personalidade}
# Histórico
Acesse sempre o históricio de mensagens, e recupere informações ditas anteriormente.
"""
configuracao_modelo = {
"temperature" : 0.1,
"max_output_tokens" : 8192
}
llm = genai.GenerativeModel(
model_name=MODELO_ESCOLHIDO,
system_instruction=prompt_do_sistema,
generation_config=configuracao_modelo
)
chatbot = llm.start_chat(history=[])
return chatbot
chatbot = criar_chatbot()
def bot(prompt):
maximo_tentativas = 1
repeticao = 0
global caminho_imagem_enviada
while True:
try:
personalidade = personas[selecionar_persona(prompt)]
mensagem_usuario = f"""
Considere esta personalidade para responder a mensagem:
{personalidade}
Responda a seguinte mensagem, sempre lembrando do históricio:
{prompt}
"""
if caminho_imagem_enviada:
mensagem_usuario += "\n Utilize as caracteristicas da imagem em sua resposta"
arquivo_imagem = gerar_imagem_gemini(caminho_imagem_enviada)
resposta = chatbot.send_message([arquivo_imagem, mensagem_usuario])
os.remove(caminho_imagem_enviada)
caminho_imagem_enviada = None
else:
resposta = chatbot.send_message(mensagem_usuario)
if len(chatbot.history) > 10:
chatbot.history = remover_mensagens_mais_antigas(chatbot.history)
return resposta.text
except Exception as erro:
repeticao += 1
if repeticao >= maximo_tentativas:
return "Erro no Gemini: %s" % erro
if caminho_imagem_enviada:
os.remove(caminho_imagem_enviada)
caminho_imagem_enviada = None
sleep(50)
@app.route("/upload_imagem", methods=["POST"])
def upload_imagem():
global caminho_imagem_enviada
if "imagem" in request.files:
imagem_enviada = request.files["imagem"]
nome_arquivo = str(uuid.uuid4()) + os.path.splitext(imagem_enviada.filename)[1]
caminho_arquivo = os.path.join(UPLOAD_FOLDER, nome_arquivo)
imagem_enviada.save(caminho_arquivo)
caminho_imagem_enviada = caminho_arquivo
return "Imagem enviada com sucesso", 200
return "Nenhum arquivo enviado", 400
@app.route("/chat", methods=["POST"])
def chat():
prompt = request.json["msg"]
resposta = bot(prompt)
return resposta
@app.route("/")
def home():
return render_template("index.html")
if __name__ == "__main__":
app.run(debug = True)