Cómo funciona Together AI
Together AI hace que sea fácil ejecutar los mejores modelos de código abierto con solo unas pocas líneas de código. La plataforma proporciona inferencia rápida, APIs compatibles con OpenAI y acceso a modelos de vanguardia como Llama 4, DeepSeek y más. Construido para desarrolladores que necesitan infraestructura de IA confiable y escalable sin la complejidad.Modelos Recomendados
Recomendamos buenos modelos de codificación con ventanas de contexto altas y precios competitivos.Para la información más actualizada, visita la página de precios de Together AI.
| Modelo | Precio (1M tokens) | Ventana de contexto |
|---|---|---|
Llama 4 Maverick recomendado | 0.85 | ~128k tokens |
| DeepSeek-V3 | $1.25 | ~128k tokens |
| Llama 3.1 70B Turbo | $0.88 | ~128k tokens |
| Qwen 2.5 72B | $1.20 | ~128k tokens |
Crear Clave API
Ve directamente a la Consola de Together AI para crear una nueva clave API. O sigue estos pasos:- Crea una cuenta en api.together.ai o inicia sesión si ya tienes una
- En el panel principal, desplázate hacia abajo hasta la sección “Administrar Cuenta”
- En la tarjeta “Claves API”, haz clic en el botón “Administrar Claves”
- Haz clic en el botón “Agregar Clave”
- Dale un nombre como ‘Kodus’ o cualquier nombre descriptivo
- Copia tu clave API, ¡y estás listo para comenzar!
Las cuentas nuevas vienen con $1 de crédito para comenzar de forma gratuita.
Cómo usar
System Requirements
Recommended Hardware
Recommended Hardware
- CPU: 2+ cores - RAM: 8GB+ - Storage: 60GB+ free space
Required Software
Required Software
- Docker (latest stable version)
- Node.js (latest LTS version)
- Yarn or NPM (latest stable version)
- Domain name or fixed IP (for external deployments)
Required Ports
Required Ports
- 3000: Kodus Web App
- 3001: API
- 3332: Webhooks
- 5672, 15672, 15692: RabbitMQ (AMQP, management, metrics)
- 3101: MCP Manager (API, metrics)
- 5432: PostgreSQL - 27017: MongoDB
Internet access is required if you plan to connect to cloud-based Git
services (GitHub, GitLab, Bitbucket) or cloud LLM providers (OpenAI, Anthropic,
etc.). For self-hosted Git tools and on-prem LLMs within your network,
external internet access is optional.
Domain Name Setup (Optional)
If you're planning to integrate Kodus with cloud-based Git providers (GitHub, GitLab, or Bitbucket), you'll need public-facing URLs for both the Kodus Web App and its API. This allows your server to receive webhooks for proper Code Review functionality and ensures correct application behavior. We recommend setting up two subdomains:- One for the Web Application, e.g.,
kodus-web.yourdomain.com. - One for the API, e.g.,
kodus-api.yourdomain.com.
- Use a dedicated webhooks subdomain, e.g.,
kodus-webhooks.yourdomain.com, or - Keep using the API domain and route
/github/webhook,/gitlab/webhook, etc. to the webhooks service in your reverse proxy.
Note: If you're only connecting to self-hosted Git tools on your network and do not require public access or webhooks, you might be able to use a simpler setup, but this guide focuses on public-facing deployments.
Setup
Edit the environment file
Edit See Environment Variables Configuration for detailed instructions.
.env with your values using your preferred text editor.Success 🎉
When complete, Kodus Services should be running on your machine.
You can verify your installation using the following script:
Access the web interface
Once you access the web interface for the first time, you'll need to:
- Create your admin account - This will be the first user with full system access
- Configure your Git provider - Connect GitHub, GitLab, or Bitbucket following the on-screen instructions
- Select repositories for analysis - Choose which code repositories Kody will review
For detailed steps on the initial configuration process, refer to our Getting
Started Guide.
Configurar Together AI en el Archivo de Entorno
Edita tu archivo.env y configura los ajustes principales. Para la Integración de LLM, usa Together AI en Modo Fijo:
Las URLs de webhook deben alcanzar el servicio de Webhooks (puerto 3332). Usa un dominio dedicado para webhooks o enruta
/.../webhook al puerto 3332 en tu proxy inverso.El Modo Fijo es ideal para Together AI porque proporciona APIs compatibles con OpenAI con precios competitivos y acceso a modelos de código abierto de vanguardia.
Run the Installation Script
Set the proper permissions for the installation script:What the Installer Does
Our installer automates several important steps:- Verifies Docker installation
- Creates networks for Kodus services
- Clones repositories and configures environment files
- Runs docker-compose to start all services
- Executes database migrations
- Seeds initial data
http://localhost:3000 - you should see the Kodus Web Application interface.
Configurar Proxy Inverso (Para Producción)
Para webhooks y acceso externo, configura Nginx:Verificar la Integración con Together AI
Además de la verificación básica de instalación, confirma que Together AI está funcionando:Solución de problemas
Problemas con la clave API
Problemas con la clave API
- Verifica que tu clave API sea correcta y esté activa en la Consola de Together AI
- Comprueba si tienes créditos suficientes en tu cuenta de Together AI
- Asegúrate de que no haya espacios extra en tu archivo
.env - Las cuentas nuevas reciben $1 en créditos gratuitos
Modelo no encontrado
Modelo no encontrado
- Verifica que el nombre del modelo esté correctamente escrito en tu configuración
- Comprueba que el modelo esté disponible en la biblioteca de modelos actual de Together AI
- Prueba con un modelo diferente de nuestra lista de recomendados
- Consulta la documentación de modelos de Together AI
Errores de conexión
Errores de conexión
- Verifica que tu servidor tenga acceso a internet para alcanzar
api.together.xyz - Comprueba si hay restricciones de firewall
- Revisa los registros de la API/worker para mensajes de error detallados
- Asegúrate de estar usando el endpoint de API correcto
Límite de tasa
Límite de tasa
- Together AI proporciona límites de tasa generosos (hasta 6000 solicitudes/min para LLMs)
- Verifica tu uso actual en el panel de Together AI
- Considera actualizar a un nivel superior para obtener límites aumentados
- Monitorea tus patrones de uso para optimizar las llamadas a la API