-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy path3-chat-stream.js
85 lines (70 loc) · 2.63 KB
/
3-chat-stream.js
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
const express = require('express');
const openAI = require('openai');
require('dotenv').config();
const app = express();
const port = 3000;
const openai = new openAI({
apiKey: process.env.OPENAI_API_KEY
});
app.use(express.json()); // Para aceptar JSON en el body de las peticiones
app.get('/', (req, res) => {
res.send('¡Hola Humano :-)!');
});
app.post('/chat', async (req, res) => {
const userMessage = req.body.message;
try {
const response = await openai.chat.completions.create({
model: 'gpt-3.5-turbo',
messages: [
{ role: 'system', content: 'Eres un experto programador, conoces todos los lenguage de programacion existentes y debes ayudar a otros programadores a resolver sus dudas' },
{ role: 'user', content: userMessage }
],
});
const assistantReply = response.choices[0].message.content;
const assistantMessage = {
role: 'assistant',
content: assistantReply,
}
res.json(assistantMessage);
} catch (error) {
console.log(error);
res.status(500).json({ error: 'Error en la solicitud de OpenAI' });
}
});
app.get('/stream-chat', async (req, res) => {
res.setHeader('Content-Type', 'text/event-stream'); // Para indicar que la respuesta es un stream de eventos
const userMessage = req.query.message;
try {
const response = await openai.chat.completions.create({
model: 'gpt-3.5-turbo',
stream: true, // Chat GPT en modo stream
messages: [
{ role: 'system', content: 'Eres un experto programador, conoces todos los lenguage de programacion existentes y debes ayudar a otros programadores a resolver sus dudas' },
{ role: 'user', content: userMessage }
],
});
let fullResponse = '';
// Iteramos sobre la respuesta de OpenAI
for await (const chunk of response) {
if (chunk.choices[0].finish_reason === 'stop') { // Cuando Chat GPT termina de responder
res.write('event: end-chat\n'); // Evento tipo end
res.write('data: [CHAT-FINALIZADO]\n\n'); // Enviamos el mensaje al cliente
res.end();
console.log(fullResponse);
return;
}
else {
const assistantReply = encodeURIComponent(chunk.choices[0].delta.content);
fullResponse += chunk.choices[0].delta.content;
res.write('event: response-chat\n'); // Evento tipo token
res.write(`data: ${assistantReply}\n\n`); // Enviamos el mensaje al cliente
}
}
} catch (error) {
console.log(error);
res.status(500).json({ error: 'Error en la solicitud de OpenAI' });
}
});
app.listen(port, () => {
console.log(`Servidor Express escuchando en el puerto ${port}`);
});