Pular para o conteúdo principal

Documentation Index

Fetch the complete documentation index at: https://docs.mka1.com/llms.txt

Use this file to discover all available pages before exploring further.

Use o recurso Responses quando você quiser que a API MKA1 retorne texto. Comece com uma string simples para prompts básicos. Use itens de mensagem quando precisar de papéis explícitos ou estado de conversa.

Envie um prompt simples

Passe uma string em input para uma solicitação de turno único. A resposta inclui o texto gerado em output_text.
mka1 llm responses create \
  --model meetkai:functionary-pt \
  --input '"Write a one-sentence summary of the MKA1 API."' \
  -H 'X-On-Behalf-Of: <end-user-id>'
Se você não estiver agindo em nome de um usuário final, omita X-On-Behalf-Of.

Adicione instruções

Use instructions para definir o comportamento antes que o modelo veja a entrada do usuário. Mantenha as instruções curtas e específicas.
mka1 llm responses create \
  --model meetkai:functionary-pt \
  --instructions 'You are a support assistant. Reply in plain English. Keep answers under 80 words.' \
  --input '"Explain what embeddings are used for."'

Envie mensagens estruturadas

Use um array de itens de mensagem em input quando quiser papéis explícitos. Cada item de mensagem usa type, role e content.
mka1 llm responses create --body '{
  "model": "meetkai:functionary-pt",
  "input": [
    { "type": "message", "role": "developer", "content": "Answer as a technical writer. Keep the reply concise." },
    { "type": "message", "role": "user", "content": "Draft a short product update about faster response times." }
  ]
}'
Esse padrão é útil quando você quer que o corpo da requisição carregue o histórico de mensagens diretamente.

Continue uma troca de múltiplas interações

Use previous_response_id para continuar a partir de uma resposta anterior sem reenviar todo o histórico.
mka1 llm responses create \
  --model meetkai:functionary-pt \
  --previous-response-id resp_123 \
  --input '"Now turn that into an email subject line."'
Se você precisa de um contêiner de conversa reutilizável, crie um com o recurso Conversations e depois passe o ID da conversa em conversation.
# Crie uma conversa
mka1 llm conversations create --body '{
  "metadata": { "session_id": "web-42" }
}'

# Use a conversa em uma requisição de resposta
mka1 llm responses create \
  --model meetkai:functionary-pt \
  --conversation conv_123 \
  --input '"What should I ask next to refine this draft?"'
Veja as páginas de Conversations e Responses na Referência da API para o fluxo completo de recursos.

Transmita texto conforme ele é gerado

Defina stream como true para receber eventos enviados pelo servidor em vez de aguardar a resposta completa.
mka1 llm responses create \
  --model meetkai:functionary-pt \
  --input '"Write three release notes bullets for our docs update."' \
  --stream
Use streaming quando quiser renderizar a saída parcial conforme ela chega.

Próximos passos

  • Revise a visão geral da API para detalhes sobre autenticação e URL base
  • Veja respostas em segundo plano quando precisar delegar trabalhos longos e buscar ou transmitir resultados
  • Veja gerenciar conversas para organizar trocas de múltiplas interações em contêineres de conversa reutilizáveis
  • Veja gerenciar agentes quando precisar de definições de agente reutilizáveis e execuções persistentes