Como o Together AI funciona
O Together AI facilita a execução de modelos open-source líderes usando apenas algumas linhas de código. A plataforma fornece inferência rápida, APIs compatíveis com OpenAI e acesso a modelos de ponta como Llama 4, DeepSeek e mais. Desenvolvido para desenvolvedores que precisam de uma infraestrutura de IA confiável e escalável sem a complexidade.Modelos Recomendados
Recomendamos bons modelos de codificação com janelas de contexto grandes e preços competitivos.Para as informações mais atualizadas, visite a página de preços do Together AI.
| Modelo | Preço (1M tokens) | Janela de Contexto |
|---|---|---|
Llama 4 Maverick recomendado | 0.85 | ~128k tokens |
| DeepSeek-V3 | $1.25 | ~128k tokens |
| Llama 3.1 70B Turbo | $0.88 | ~128k tokens |
| Qwen 2.5 72B | $1.20 | ~128k tokens |
Criando uma Chave de API
Acesse diretamente o Console Together AI para criar uma nova Chave de API. Ou siga estes passos:- Crie uma conta em api.together.ai ou faça login se já tiver uma
- No painel principal, role para baixo até a seção “Gerenciar Conta”
- No cartão “Chaves de API”, clique no botão “Gerenciar Chaves”
- Clique no botão “Adicionar Chave”
- Dê um nome como ‘Kodus’ ou qualquer nome descritivo
- Copie sua chave de API e pronto!
Novas contas recebem $1 de crédito para começar gratuitamente.
Como usar
System Requirements
Recommended Hardware
Recommended Hardware
- CPU: 2+ cores - RAM: 8GB+ - Storage: 60GB+ free space
Required Software
Required Software
- Docker (latest stable version)
- Node.js (latest LTS version)
- Yarn or NPM (latest stable version)
- Domain name or fixed IP (for external deployments)
Required Ports
Required Ports
- 3000: Kodus Web App
- 3001: API
- 3332: Webhooks
- 5672, 15672, 15692: RabbitMQ (AMQP, management, metrics)
- 3101: MCP Manager (API, metrics)
- 5432: PostgreSQL - 27017: MongoDB
Internet access is required if you plan to connect to cloud-based Git
services (GitHub, GitLab, Bitbucket) or cloud LLM providers (OpenAI, Anthropic,
etc.). For self-hosted Git tools and on-prem LLMs within your network,
external internet access is optional.
Domain Name Setup (Optional)
If you're planning to integrate Kodus with cloud-based Git providers (GitHub, GitLab, or Bitbucket), you'll need public-facing URLs for both the Kodus Web App and its API. This allows your server to receive webhooks for proper Code Review functionality and ensures correct application behavior. We recommend setting up two subdomains:- One for the Web Application, e.g.,
kodus-web.yourdomain.com. - One for the API, e.g.,
kodus-api.yourdomain.com.
- Use a dedicated webhooks subdomain, e.g.,
kodus-webhooks.yourdomain.com, or - Keep using the API domain and route
/github/webhook,/gitlab/webhook, etc. to the webhooks service in your reverse proxy.
Note: If you're only connecting to self-hosted Git tools on your network and do not require public access or webhooks, you might be able to use a simpler setup, but this guide focuses on public-facing deployments.
Setup
Edit the environment file
Edit See Environment Variables Configuration for detailed instructions.
.env with your values using your preferred text editor.Success 🎉
When complete, Kodus Services should be running on your machine.
You can verify your installation using the following script:
Access the web interface
Once you access the web interface for the first time, you'll need to:
- Create your admin account - This will be the first user with full system access
- Configure your Git provider - Connect GitHub, GitLab, or Bitbucket following the on-screen instructions
- Select repositories for analysis - Choose which code repositories Kody will review
For detailed steps on the initial configuration process, refer to our Getting
Started Guide.
Configurar o Together AI no Arquivo de Ambiente
Edite o seu arquivo.env e configure as definições principais. Para a Integração de LLM, use o Together AI no Modo Fixo:
As URLs de webhook devem alcançar o serviço de Webhooks (porta 3332). Use um domínio dedicado para webhooks ou roteie
/.../webhook para a porta 3332 no seu proxy reverso.O Modo Fixo é ideal para o Together AI porque ele fornece APIs compatíveis com OpenAI com preços competitivos e acesso a modelos open-source de ponta.
Run the Installation Script
Set the proper permissions for the installation script:What the Installer Does
Our installer automates several important steps:- Verifies Docker installation
- Creates networks for Kodus services
- Clones repositories and configures environment files
- Runs docker-compose to start all services
- Executes database migrations
- Seeds initial data
http://localhost:3000 - you should see the Kodus Web Application interface.
Configurar Proxy Reverso (Para Produção)
Para webhooks e acesso externo, configure o Nginx:Verificar a Integração com o Together AI
Além da verificação básica de instalação, confirme que o Together AI está funcionando:Solução de problemas
Problemas com Chave de API
Problemas com Chave de API
- Verifique se sua chave de API está correta e ativa no Console Together AI
- Verifique se você tem créditos suficientes na sua conta Together AI
- Certifique-se de que não há espaços extras no seu arquivo
.env - Novas contas recebem $1 em créditos gratuitos
Modelo Não Encontrado
Modelo Não Encontrado
- Verifique se o nome do modelo está escrito corretamente na sua configuração
- Verifique se o modelo está disponível na biblioteca de modelos atual do Together AI
- Tente com um modelo diferente da nossa lista recomendada
- Consulte a documentação de modelos do Together AI
Erros de Conexão
Erros de Conexão
- Verifique se o seu servidor tem acesso à internet para alcançar
api.together.xyz - Verifique se há restrições de firewall
- Revise os logs da API/worker para mensagens de erro detalhadas
- Certifique-se de que está usando o endpoint de API correto
Limitação de Taxa
Limitação de Taxa
- O Together AI fornece limites de taxa generosos (até 6000 requisições/min para LLMs)
- Verifique seu uso atual no painel do Together AI
- Considere fazer upgrade para um plano superior para aumentar os limites
- Monitore seus padrões de uso para otimizar as chamadas de API