Saltar al contenido principal
Utiliza el recurso de Respuestas cuando quieras que la API de MKA1 devuelva texto. Comienza con una cadena simple para prompts sencillos. Usa elementos de mensaje cuando necesites roles explícitos o estado de conversación.

Envía un prompt simple

Pasa una cadena en input para una solicitud de un solo turno. La respuesta incluye el texto generado en output_text.
import { SDK } from '@meetkai/mka1';

const mka1 = new SDK({
  bearerAuth: `Bearer ${YOUR_API_KEY}`,
});

const result = await mka1.llm.responses.create({
  model: 'gpt-5',
  input: 'Write a one-sentence summary of the MKA1 API.',
}, { headers: { 'X-On-Behalf-Of': '<end-user-id>' } });
Si no estás actuando en nombre de un usuario final, omite X-On-Behalf-Of.

Agrega instrucciones

Usa instructions para definir el comportamiento antes de que el modelo vea la entrada del usuario. Mantén las instrucciones cortas y específicas.
const result = await mka1.llm.responses.create({
  model: 'gpt-5',
  instructions: 'You are a support assistant. Reply in plain English. Keep answers under 80 words.',
  input: 'Explain what embeddings are used for.',
});

Envía mensajes estructurados

Usa un arreglo de elementos de mensaje en input cuando quieras roles explícitos. Cada elemento de mensaje utiliza type, role y content.
const result = await mka1.llm.responses.create({
  model: 'gpt-5',
  input: [
    { type: 'message', role: 'developer', content: 'Answer as a technical writer. Keep the reply concise.' },
    { type: 'message', role: 'user', content: 'Draft a short product update about faster response times.' },
  ],
});
Este patrón es útil cuando quieres que el cuerpo de la solicitud lleve directamente el historial de mensajes.

Continúa un intercambio de varios turnos

Usa previous_response_id para continuar desde una respuesta anterior sin reenviar todo el historial.
const second = await mka1.llm.responses.create({
  model: 'gpt-5',
  previousResponseId: 'resp_123',
  input: 'Now turn that into an email subject line.',
});
Si necesitas un contenedor de conversación reutilizable, créalo con el recurso de Conversaciones y luego pasa el ID de la conversación en conversation.
const conv = await mka1.llm.conversations.create({
  metadata: { session_id: 'web-42' },
});

const result = await mka1.llm.responses.create({
  model: 'gpt-5',
  conversation: conv.id,
  input: 'What should I ask next to refine this draft?',
});
Consulta las páginas de Conversaciones y Respuestas en la Referencia de la API para el flujo completo de recursos.

Transmite texto a medida que se genera

Establece stream en true para recibir eventos enviados por el servidor en lugar de esperar la respuesta completa.
import { CreateAcceptEnum } from '@meetkai/mka1/sdk/responses';

const result = await mka1.llm.responses.create({
  model: 'gpt-5',
  input: 'Write three release notes bullets for our docs update.',
  stream: true,
}, { acceptHeaderOverride: CreateAcceptEnum.TextEventStream });
Utiliza el streaming cuando quieras mostrar la salida parcial a medida que llega.

Próximos pasos