Documentation Index
Fetch the complete documentation index at: https://docs.kodus.io/llms.txt
Use this file to discover all available pages before exploring further.
Cómo funciona Together AI
Together AI hace que sea fácil ejecutar los mejores modelos de código abierto con solo unas pocas líneas de código. La plataforma proporciona inferencia rápida, APIs compatibles con OpenAI y acceso a modelos de vanguardia como Llama 4, DeepSeek y más. Construido para desarrolladores que necesitan infraestructura de IA confiable y escalable sin la complejidad.Modelos Recomendados
Recomendamos buenos modelos de codificación con ventanas de contexto altas y precios competitivos.Para la información más actualizada, visita la página de precios de Together AI.
| Modelo | Precio (1M tokens) | Ventana de contexto |
|---|---|---|
Llama 4 Maverick recomendado | 0.85 | ~128k tokens |
| DeepSeek-V3 | $1.25 | ~128k tokens |
| Llama 3.1 70B Turbo | $0.88 | ~128k tokens |
| Qwen 2.5 72B | $1.20 | ~128k tokens |
Crear Clave API
Ve directamente a la Consola de Together AI para crear una nueva clave API. O sigue estos pasos:- Crea una cuenta en api.together.ai o inicia sesión si ya tienes una
- En el panel principal, desplázate hacia abajo hasta la sección “Administrar Cuenta”
- En la tarjeta “Claves API”, haz clic en el botón “Administrar Claves”
- Haz clic en el botón “Agregar Clave”
- Dale un nombre como ‘Kodus’ o cualquier nombre descriptivo
- Copia tu clave API, ¡y estás listo para comenzar!
Las cuentas nuevas vienen con $1 de crédito para comenzar de forma gratuita.
Cómo usar
System Requirements
Recommended Hardware
Recommended Hardware
Sized for the default
local sandbox mode (kodus-graph + cross-file
context run inside the worker container).- CPU: 2+ cores (4+ recommended for repos above ~100k LOC)
- RAM: 8GB+ (16GB recommended when running the
localsandbox on large repos) - Storage: 60GB+ free space (Postgres holds the AST graph cache; grows with repo count and PR volume)
Required Software
Required Software
- Docker (latest stable) with the Compose plugin
- Domain name or fixed IP if you want to receive Git webhooks from cloud providers (GitHub.com, GitLab.com, etc.)
Required Ports
Required Ports
Default host port mappings — adjust in
.env if any conflict.- 3000 — Kodus Web App
- 3001 — API
- 3332 — Webhooks
- 5432 — PostgreSQL
- 27017 — MongoDB
- 5672, 15672, 15692 — RabbitMQ (AMQP, management UI, metrics)
- 3101 — MCP Manager (only if
API_MCP_SERVER_ENABLED=true)
Services
Services
What
./scripts/install.sh brings up, based on your .env.Core (always on):api— main backendworker— code-review jobswebhooks— Git provider webhook receiverkodus-web— Next.js frontenddb_kodus_postgres,db_kodus_mongodb,rabbitmq— local infrastructure. Skip withUSE_LOCAL_DB=false/USE_LOCAL_RABBITMQ=falseto point at managed instances.
kodus-mcp-manager— Model Context Protocol broker. Enable withAPI_MCP_SERVER_ENABLED=true. See MCP Manager.worker-analytics— Cockpit ingestion (DORA metrics, PR classifier). Self-hosted Enterprise only, not wired by default. See Analytics Worker.
Code review uses an AST graph + cross-file context that runs in a
sandbox —
local (default, runs inside the worker) or e2b (paid
remote sandbox). See Sandbox & AST Graph
for the modes, caching behavior, and when to pick each.Internet access is required if you plan to connect to cloud-based Git
services (GitHub, GitLab, Bitbucket) or cloud LLM providers (OpenAI, Anthropic,
etc.). For self-hosted Git tools and on-prem LLMs within your network,
external internet access is optional.
Domain Name Setup (Optional)
If you're planning to integrate Kodus with cloud-based Git providers (GitHub, GitLab, or Bitbucket), you'll need public-facing URLs for both the Kodus Web App and its API. This allows your server to receive webhooks for proper Code Review functionality and ensures correct application behavior. We recommend setting up two subdomains:- One for the Web Application, e.g.,
kodus-web.yourdomain.com. - One for the API, e.g.,
kodus-api.yourdomain.com.
- Use a dedicated webhooks subdomain, e.g.,
kodus-webhooks.yourdomain.com, or - Keep using the API domain and route
/github/webhook,/gitlab/webhook, etc. to the webhooks service in your reverse proxy.
Note: If you're only connecting to self-hosted Git tools on your network and do not require public access or webhooks, you might be able to use a simpler setup, but this guide focuses on public-facing deployments.
Setup
Edit the environment file
Edit See Environment Variables Configuration for detailed instructions.
.env with your values using your preferred text editor.Success 🎉
When complete, Kodus Services should be running on your machine.
You can verify your installation using the following script:
Access the web interface
Once you access the web interface for the first time, you'll need to:
- Create your admin account - This will be the first user with full system access
- Configure your Git provider - Connect GitHub, GitLab, or Bitbucket following the on-screen instructions
- Select repositories for analysis - Choose which code repositories Kody will review
For detailed steps on the initial configuration process, refer to our Getting
Started Guide.
Configurar Together AI en el Archivo de Entorno
Edita tu archivo.env y configura los ajustes principales. Para la Integración de LLM, usa Together AI en Modo Fijo:
Las URLs de webhook deben alcanzar el servicio de Webhooks (puerto 3332). Usa un dominio dedicado para webhooks o enruta
/.../webhook al puerto 3332 en tu proxy inverso.El Modo Fijo es ideal para Together AI porque proporciona APIs compatibles con OpenAI con precios competitivos y acceso a modelos de código abierto de vanguardia.
Run the Installation Script
Set the proper permissions for the installation script:What the Installer Does
Our installer automates several important steps:- Verifies Docker installation
- Creates networks for Kodus services
- Clones repositories and configures environment files
- Runs docker-compose to start all services
- Executes database migrations
- Seeds initial data
http://localhost:3000 - you should see the Kodus Web Application interface.
Configurar Proxy Inverso (Para Producción)
Para webhooks y acceso externo, configura Nginx:Verificar la Integración con Together AI
Además de la verificación básica de instalación, confirma que Together AI está funcionando:Solución de problemas
Problemas con la clave API
Problemas con la clave API
- Verifica que tu clave API sea correcta y esté activa en la Consola de Together AI
- Comprueba si tienes créditos suficientes en tu cuenta de Together AI
- Asegúrate de que no haya espacios extra en tu archivo
.env - Las cuentas nuevas reciben $1 en créditos gratuitos
Modelo no encontrado
Modelo no encontrado
- Verifica que el nombre del modelo esté correctamente escrito en tu configuración
- Comprueba que el modelo esté disponible en la biblioteca de modelos actual de Together AI
- Prueba con un modelo diferente de nuestra lista de recomendados
- Consulta la documentación de modelos de Together AI
Errores de conexión
Errores de conexión
- Verifica que tu servidor tenga acceso a internet para alcanzar
api.together.xyz - Comprueba si hay restricciones de firewall
- Revisa los registros de la API/worker para mensajes de error detallados
- Asegúrate de estar usando el endpoint de API correcto
Límite de tasa
Límite de tasa
- Together AI proporciona límites de tasa generosos (hasta 6000 solicitudes/min para LLMs)
- Verifica tu uso actual en el panel de Together AI
- Considera actualizar a un nivel superior para obtener límites aumentados
- Monitorea tus patrones de uso para optimizar las llamadas a la API