Saltar al contenido principal
La herramienta history otorga a los modelos una memoria a largo plazo que persiste entre sesiones. Cuando está habilitada, cada par de solicitud-respuesta se almacena e indexa automáticamente. El modelo puede luego buscar semánticamente en interacciones pasadas para recordar información de conversaciones anteriores.

Cómo funciona

  1. Agrega { type: "history" } al arreglo tools en tu solicitud
  2. El modelo recibe una función history que puede llamar con una consulta de búsqueda
  3. Las conversaciones pasadas se buscan usando embeddings vectoriales para similitud semántica
  4. Después de cada respuesta, el mensaje del usuario y la respuesta del asistente se almacenan automáticamente en segundo plano
La memoria está limitada por usuario final — cada ID de usuario X-On-Behalf-Of obtiene un historial aislado. Los diferentes usuarios finales no pueden ver el historial de otros.

Habilitar la herramienta de historial

import { SDK } from '@meetkai/mka1';

const mka1 = new SDK({
  bearerAuth: `Bearer ${YOUR_API_KEY}`,
});

const result = await mka1.llm.responses.create({
  model: 'gpt-5',
  input: 'Recuerda esto: mi color favorito es azul.',
  tools: [{ type: 'history' }],
  store: true,
}, { headers: { 'X-On-Behalf-Of': '<end-user-id>' } });
Configura store: true para que la conversación se persista y esté disponible para ser recordada en el futuro.

Recordar información de una sesión anterior

En una solicitud posterior — incluso minutos, horas o días después — el modelo puede buscar en su historial para encontrar interacciones relevantes pasadas. El modelo decide cuándo llamar a la herramienta de historial según la pregunta del usuario.
// En una nueva sesión, el modelo puede recordar conversaciones pasadas
const result = await mka1.llm.responses.create({
  model: 'gpt-5',
  input: '¿Cuál es mi color favorito?',
  tools: [{ type: 'history' }],
  store: true,
}, { headers: { 'X-On-Behalf-Of': '<end-user-id>' } });

// El modelo llama a la herramienta de historial, encuentra la conversación anterior,
// y responde: "Tu color favorito es azul."

Ejemplo completo: guardar y recuperar entre sesiones

Este ejemplo muestra el flujo completo — guardar información en una solicitud y recuperarla en una solicitud separada.
import { SDK } from '@meetkai/mka1';

const mka1 = new SDK({
  bearerAuth: `Bearer ${YOUR_API_KEY}`,
});

const headers = { 'X-On-Behalf-Of': 'user-123' };

// Sesión 1: Dile al modelo algo para recordar
const first = await mka1.llm.responses.create({
  model: 'gpt-5',
  input: 'Recuerda esto: la fecha límite del proyecto es el 15 de marzo y el presupuesto es de $50,000.',
  tools: [{ type: 'history' }],
  store: true,
}, { headers });

console.log('Almacenado:', first.outputText);

// Sesión 2: Pregunta sobre ello más tarde
const second = await mka1.llm.responses.create({
  model: 'gpt-5',
  input: '¿Cuál es la fecha límite y el presupuesto del proyecto?',
  tools: [{ type: 'history' }],
  store: true,
}, { headers });

console.log('Recordado:', second.outputText);
// → "La fecha límite del proyecto es el 15 de marzo y el presupuesto es de $50,000."

Detalles del comportamiento

AspectoDetalle
AlmacenamientoAutomático — cada par solicitud/respuesta se indexa después de la respuesta
BúsquedaSemántica — usa embeddings vectoriales, no coincidencia por palabras clave
AlcancePor usuario final — aislado por el encabezado X-On-Behalf-Of
IndexaciónEn segundo plano — no añade latencia a la respuesta
ResultadosHasta 10 interacciones pasadas más relevantes devueltas por búsqueda
Tamaño de entradaTexto truncado a 7,500 caracteres por entrada para embedding

Cuándo usar la herramienta de historial

  • Personalización: Recuerda preferencias del usuario, nombres o contexto entre sesiones
  • Continuidad de proyectos: Recuerda decisiones, fechas límite o requisitos discutidos anteriormente
  • Flujos de soporte: Mantén contexto sobre el historial de incidencias de un usuario
  • Asistentes: Crea asistentes que aprendan y se adapten a usuarios individuales con el tiempo

Próximos pasos