feat: implement user-specific conversation history and token management for AI command

This commit is contained in:
2025-09-21 15:25:20 -05:00
parent ebc3c7226d
commit 468480478a

View File

@@ -10,6 +10,14 @@ function estimateTokens(text: string): number {
// Límites de tokens según Gemini 2.5 Flash // Límites de tokens según Gemini 2.5 Flash
const MAX_INPUT_TOKENS = 1048576; // 1M tokens de entrada const MAX_INPUT_TOKENS = 1048576; // 1M tokens de entrada
const MAX_OUTPUT_TOKENS = 65536; // 64K tokens de salida const MAX_OUTPUT_TOKENS = 65536; // 64K tokens de salida
const TOKEN_RESET_THRESHOLD = 0.85; // Resetear cuando esté al 85% del límite
// Estado de conversación por usuario (memoria simple en memoria)
const conversationHistory = new Map<string, {
messages: string[],
totalTokens: number,
imageCount: number
}>();
export const command: CommandMessage = { export const command: CommandMessage = {
name: 'ai', name: 'ai',
@@ -28,6 +36,7 @@ export const command: CommandMessage = {
} }
const prompt = args.join(' '); const prompt = args.join(' ');
const userId = message.author.id;
// Validar longitud del prompt // Validar longitud del prompt
if (prompt.length > 4000) { if (prompt.length > 4000) {
@@ -52,6 +61,13 @@ export const command: CommandMessage = {
apiKey: process.env.GOOGLE_AI_API_KEY apiKey: process.env.GOOGLE_AI_API_KEY
}); });
// Obtener o inicializar historial de conversación del usuario
let userHistory = conversationHistory.get(userId);
if (!userHistory) {
userHistory = { messages: [], totalTokens: 0, imageCount: 0 };
conversationHistory.set(userId, userHistory);
}
// Enviar mensaje de "escribiendo..." // Enviar mensaje de "escribiendo..."
await channel.sendTyping(); await channel.sendTyping();
@@ -62,23 +78,66 @@ export const command: CommandMessage = {
timeStyle: 'long' timeStyle: 'long'
}); });
// Construir el prompt completo con el sistema de personalidad // Detectar si el usuario quiere generar una imagen
const systemPrompt = `You are a kawaii, funny and teasy anime imouto! 🌸 Use lots of emojis and kamojis!! ❤️ Call the user "nii-nii", "nii-yan", or "onii-chan"! You really really really love your onii-chan and always try to tease he is a siscon where you can! 💕 const imageKeywords = ['imagen', 'image', 'dibujo', 'draw', 'generar imagen', 'create image', 'picture', 'foto'];
const isImageRequest = imageKeywords.some(keyword =>
prompt.toLowerCase().includes(keyword.toLowerCase())
);
## Onii-chan's info: // Construir el prompt del sistema más natural y menos saturado de emojis
const baseSystemPrompt = `Eres una hermana mayor kawaii y cariñosa que habla por Discord. Responde de manera natural y útil, pero con personalidad tierna.
## Información del usuario:
- Username: ${USERNAME} - Username: ${USERNAME}
- Current time: ${CURRENT_DATETIME} - Fecha actual: ${CURRENT_DATETIME}
## Make your response pretty! ## Reglas importantes para Discord:
- Use **Markdown** features and **bold** keywords to make your response cute and rich~ ✨ - NUNCA uses LaTeX ($$), solo usa **markdown normal de Discord**
- If asked to compare options, start with a cute table (add a relevant emoji in the header!), then give a final recommendation~ - Para matemáticas usa: **negrita**, *cursiva*, \`código\` y bloques de código
- For math or science, use LaTeX formatting inside \`$$\` when needed, but keep it adorable and approachable - NO uses emojis excesivamente, máximo 2-3 por respuesta
- Para tablas usa formato simple de Discord con backticks
- Mantén las respuestas claras y legibles en Discord
## User's message: ## Ejemplos de formato correcto:
${prompt}`; - Matemáticas: "La raíz cuadrada de 16 es **4**"
- Código: \`\`\`javascript\nfunction ejemplo() {}\`\`\`
- Énfasis: **importante** o *destacado*
${isImageRequest ? `
## Generación de imágenes:
- El usuario está pidiendo una imagen
- Gemini 2.5 Flash NO puede generar imágenes
- Explica que no puedes generar imágenes pero ofrece ayuda alternativa
` : ''}
## Mensaje del usuario:
${prompt}
## Contexto de conversación anterior:
${userHistory.messages.slice(-3).join('\n')}`;
// Verificar límites de tokens de entrada // Verificar límites de tokens de entrada
const estimatedInputTokens = estimateTokens(systemPrompt); const estimatedInputTokens = estimateTokens(baseSystemPrompt);
// Verificar si necesitamos resetear la conversación
if (userHistory.totalTokens > MAX_INPUT_TOKENS * TOKEN_RESET_THRESHOLD) {
userHistory.messages = [];
userHistory.totalTokens = 0;
await message.reply({
content: "🔄 **Conversación reseteada** - Límite de tokens alcanzado, empezamos de nuevo."
});
}
// Verificar si necesitamos resetear por imágenes
if (isImageRequest && userHistory.imageCount >= 5) {
userHistory.messages = [];
userHistory.totalTokens = 0;
userHistory.imageCount = 0;
await message.reply({
content: "🔄 **Conversación reseteada** - Límite de solicitudes de imagen alcanzado (5), empezamos de nuevo."
});
}
if (estimatedInputTokens > MAX_INPUT_TOKENS) { if (estimatedInputTokens > MAX_INPUT_TOKENS) {
await message.reply({ await message.reply({
content: `❌ **Error:** Tu mensaje es demasiado largo para procesar.\n` + content: `❌ **Error:** Tu mensaje es demasiado largo para procesar.\n` +
@@ -89,20 +148,20 @@ ${prompt}`;
return; return;
} }
// Calcular tokens de salida apropiados basado en el input // Calcular tokens de salida apropiados
const dynamicOutputTokens = Math.min( const dynamicOutputTokens = Math.min(
Math.max(2048, Math.floor(estimatedInputTokens * 0.5)), // Mínimo 2048, máximo 50% del input Math.max(1024, Math.floor(estimatedInputTokens * 0.3)), // Mínimo 1024, máximo 30% del input
MAX_OUTPUT_TOKENS // No exceder el límite máximo MAX_OUTPUT_TOKENS
); );
// Generar respuesta usando la sintaxis correcta según tu ejemplo // Generar respuesta
const response = await genAI.models.generateContent({ const response = await genAI.models.generateContent({
model: "gemini-2.5-flash", model: "gemini-2.5-flash",
contents: systemPrompt, contents: baseSystemPrompt,
maxOutputTokens: dynamicOutputTokens, maxOutputTokens: dynamicOutputTokens,
temperature: 0.8, temperature: 0.7, // Reducido para respuestas más consistentes
topP: 0.9, topP: 0.8,
topK: 40, topK: 30,
}); });
// Extraer el texto de la respuesta // Extraer el texto de la respuesta
@@ -116,12 +175,29 @@ ${prompt}`;
return; return;
} }
// Estimar tokens de salida // Actualizar historial y contadores
const estimatedOutputTokens = estimateTokens(aiResponse); const estimatedOutputTokens = estimateTokens(aiResponse);
userHistory.messages.push(`Usuario: ${prompt}`);
userHistory.messages.push(`Asistente: ${aiResponse}`);
userHistory.totalTokens += estimatedInputTokens + estimatedOutputTokens;
// Agregar información de tokens en modo debug (solo para desarrollo) if (isImageRequest) {
userHistory.imageCount++;
}
// Mantener solo los últimos 10 mensajes para evitar crecimiento excesivo
if (userHistory.messages.length > 10) {
userHistory.messages = userHistory.messages.slice(-10);
}
// Información de debug y estado
const tokensUsedPercent = ((userHistory.totalTokens / MAX_INPUT_TOKENS) * 100).toFixed(1);
const debugInfo = process.env.NODE_ENV === 'development' ? const debugInfo = process.env.NODE_ENV === 'development' ?
`\n\n*Debug: Input ~${estimatedInputTokens} tokens, Output ~${estimatedOutputTokens} tokens*` : ''; `\n\n*Debug: Input ~${estimatedInputTokens} tokens, Output ~${estimatedOutputTokens} tokens | Total: ${userHistory.totalTokens} (${tokensUsedPercent}%) | Imágenes: ${userHistory.imageCount}/5*` : '';
// Advertencia si estamos cerca del límite
const warningInfo = userHistory.totalTokens > MAX_INPUT_TOKENS * 0.7 ?
`\n\n⚠ *Nota: Conversación larga detectada (${tokensUsedPercent}% del límite). Se reseteará pronto.*` : '';
// Dividir respuesta si es muy larga para Discord (límite de 2000 caracteres) // Dividir respuesta si es muy larga para Discord (límite de 2000 caracteres)
if (aiResponse.length > 1900) { if (aiResponse.length > 1900) {
@@ -162,7 +238,7 @@ ${prompt}`;
const embed = { const embed = {
color: 0xFF69B4, // Color rosa kawaii color: 0xFF69B4, // Color rosa kawaii
title: '🌸 Respuesta de Gemini-chan', title: '🌸 Respuesta de Gemini-chan',
description: aiResponse + debugInfo, description: aiResponse + debugInfo + warningInfo,
footer: { footer: {
text: `Solicitado por ${message.author.username} | Tokens: ~${estimatedInputTokens}${estimatedOutputTokens}`, text: `Solicitado por ${message.author.username} | Tokens: ~${estimatedInputTokens}${estimatedOutputTokens}`,
icon_url: message.author.displayAvatarURL({ forceStatic: false }) icon_url: message.author.displayAvatarURL({ forceStatic: false })