Cohere MCP Server
Acesse modelos Cohere AI via API — converse com modelos Command, gere embeddings, rerankeie documentos e tokenize texto de qualquer agente de IA.
Pergunte à IA sobre este MCP Server
Vinkius AI Gateway suporta streamable HTTP e SSE.

Funciona com todos os agentes de IA que você já usa
…e qualquer cliente compatível com MCP


















O que é o Cohere MCP Server?
O Cohere MCP Server dá a agentes de IA como Claude, ChatGPT e Cursor acesso direto ao Cohere. Acesse modelos Cohere AI via API — converse com modelos Command, gere embeddings, rerankeie documentos e tokenize texto de qualquer agente de IA. Potencializado pelo Vinkius AI Gateway — sem chaves de API, sem infraestrutura, conecte em menos de 2 minutos.
Cohere MCP Server: veja o seu AI Agent em ação
Capacidades integradas (6)
chat
Requires the model ID (e.g. "command-r-plus", "command-r", "command-r7b") and messages array in JSON format. Each message must have a "role" ("user", "assistant", "system" or "tool") and "content" (text or array of content blocks). Optionally set max_tokens, temperature (0-1), p (nucleus sampling 0-1) and tools array for function calling. Returns the model's response with text, citations and tool calls. Send a chat message to a Cohere model
detokenize
Requires the token IDs array. Returns the reconstructed text. Useful for debugging and verifying tokenization. Detokenize token IDs back to text using Cohere
embed
Requires the model ID (e.g. "embed-v4", "embed-v3"), texts array and input_type ("search_document", "search_query", "classification", "clustering"). Returns embedding vectors for each input text. Useful for semantic search, similarity comparison and vector database storage. Generate embeddings using Cohere
list_models
Each model returns its name (e.g. "command-r-plus", "command-r", "embed-v4", "rerank-v3.5"), endpoint compatibility, context length and tokenization info. Use this to discover which models are available and their capabilities. List all available Cohere models
rerank
Requires the model ID (e.g. "rerank-v3.5", "rerank-english-v3.0"), query text and documents array. Optionally set top_n to return only the top N results. Returns ranked documents with relevance scores. Rerank documents by relevance to a query
tokenize
Requires the text to tokenize and optionally the model. Returns the list of token IDs and token strings. Useful for estimating token counts before sending to chat or embed endpoints. Tokenize text using Cohere
O que esse conector desbloqueia
Conecte sua conta do Cohere a qualquer agente de IA e aproveite modelos de IA enterprise através de conversação natural.
O que você pode fazer
- Descoberta de Modelos — Liste todos os modelos Cohere disponíveis com seus nomes, capacidades e comprimentos de contexto
- Chat API — Envie conversas para modelos Command (command-r-plus, command-r, command-r7b) e receba respostas com citações e suporte a tool calls
- Embeddings — Gere embeddings vetoriais para busca semântica com múltiplos tipos de embedding (float, int8, uint8, binary)
- Reranking — Rerankeie documentos por relevância a uma query de busca usando modelos de reranking líderes da indústria
- Tokenização — Tokenize e detokenize texto para estimar contagens de tokens e debug
Como funciona
1. Assine este servidor
2. Insira sua Cohere API Key
3. Comece a usar modelos Cohere pelo Claude, Cursor ou qualquer cliente MCP
Sua IA agora age como uma camada de orquestração de LLM.
Para quem é?
- Developers — enviem rapidamente mensagens para modelos Command, gerem embeddings e rerankeiem resultados de busca sem escrever código HTTP
- ML Engineers — descubram modelos disponíveis, comparem capacidades e gerem embeddings com múltiplos tipos (float, int8, binary)
- Search Teams — rerankeiem documentos por relevância, tokenizem texto e gerem embeddings para construção de índice de busca
Perguntas frequentes
Dê aos seus agentes de IA o poder do Cohere
Acesse o Cohere e 2.500+ servidores MCP — prontos para seus agentes usarem, agora mesmo. Sem código cola. Sem integrações customizadas. Apenas plugue o Vinkius AI Gateway e deixe seus agentes trabalharem.
