-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathapp.js
118 lines (99 loc) · 3.77 KB
/
app.js
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
const express = require('express');
const openAI = require('openai');
const path = require('path');
const db = require('./db');
require('dotenv').config();
const app = express();
const port = 3000;
const openai = new openAI({
apiKey: process.env.OPENAI_API_KEY
});
app.use(express.json()); // Para aceptar JSON en el body de las peticiones
app.get('/', (req, res) => {
res.send('¡Hola Humano :-)!');
});
app.get('/asistente', (req, res) => {
res.sendFile(path.join(__dirname+'/asistente.html'));
});
app.post('/chat', async (req, res) => {
const userMessage = req.body.message;
try {
const response = await openai.chat.completions.create({
model: 'gpt-3.5-turbo',
messages: [
{ role: 'system', content: 'Eres un experto programador, conoces todos los lenguage de programacion existentes y debes ayudar a otros programadores a resolver sus dudas' },
{ role: 'user', content: userMessage }
],
});
const assistantReply = response.choices[0].message.content;
const assistantMessage = {
role: 'assistant',
content: assistantReply,
}
res.json(assistantMessage);
} catch (error) {
console.log(error);
res.status(500).json({ error: 'Error en la solicitud de OpenAI' });
}
});
app.get('/stream-chat/:room_id', async (req, res) => {
res.setHeader('Content-Type', 'text/event-stream'); // Para indicar que la respuesta es un stream de eventos
const roomId = req.params.room_id;
const systemMessage = { role: 'system', content: 'Eres un experto programador, conoces todos los lenguage de programacion existentes y debes ayudar a otros programadores a resolver sus dudas' }
const userMessage = { role: 'user', content: req.query.message };
// Obteniendo mensajes de la base de datos
let messages = [systemMessage];
const getMessages = new Promise((resolve, reject) => {
db.all(`SELECT role, message as content FROM messages WHERE room_id = ?`, roomId, (err, rows) => {
if (err) {
reject(err);
}
resolve(rows);
});
});
messages = messages.concat(await getMessages);
// Agregando el mensaje de usuario en la base de datos:
messages.push(userMessage);
db.run(`INSERT INTO messages (room_id, role, message) VALUES (?, ?, ?)`, [roomId, 'user', userMessage.content], (err) => {
if (err) {
console.log(err);
}
});
// console.log(messages);
try {
const response = await openai.chat.completions.create({
model: 'gpt-3.5-turbo',
stream: true, // Chat GPT en modo stream
messages: messages,
});
let fullAssitantResponse = '';
// Iteramos sobre la respuesta de OpenAI
for await (const chunk of response) {
if (chunk.choices[0].finish_reason === 'stop') { // Cuando Chat GPT termina de responder
res.write('event: end-chat\n'); // Evento tipo end
res.write('data: [CHAT-FINALIZADO]\n\n'); // Enviamos el mensaje al cliente
res.end();
// Agregando respuesta del asistente a la base de datos
db.run(`INSERT INTO messages (room_id, role, message) VALUES (?, ?, ?)`, [roomId, 'assistant', fullAssitantResponse], (err) => {
if (err) {
console.log(err);
}
});
// console.log(fullAssitantResponse);
return;
}
else {
const assistantReply = encodeURIComponent(chunk.choices[0].delta.content);
fullAssitantResponse += chunk.choices[0].delta.content;
res.write('event: response-chat\n'); // Evento tipo token
res.write(`data: ${assistantReply}\n\n`); // Enviamos el mensaje al cliente
}
}
} catch (error) {
console.log(error);
res.status(500).json({ error: 'Error en la solicitud de OpenAI' });
}
});
app.listen(port, () => {
console.log(`Servidor Express escuchando en el puerto ${port}`);
});