Saltar al contenido principal

Cómo funciona Together AI

Together AI hace que sea fácil ejecutar los mejores modelos de código abierto con solo unas pocas líneas de código. La plataforma proporciona inferencia rápida, APIs compatibles con OpenAI y acceso a modelos de vanguardia como Llama 4, DeepSeek y más. Construido para desarrolladores que necesitan infraestructura de IA confiable y escalable sin la complejidad.

Modelos Recomendados

Recomendamos buenos modelos de codificación con ventanas de contexto altas y precios competitivos.
Para la información más actualizada, visita la página de precios de Together AI.
ModeloPrecio (1M tokens)Ventana de contexto
Llama 4 Maverick recomendado0.27/0.27/0.85~128k tokens
DeepSeek-V3$1.25~128k tokens
Llama 3.1 70B Turbo$0.88~128k tokens
Qwen 2.5 72B$1.20~128k tokens

Crear Clave API

Se requiere una cuenta de Together AI para crear una clave API.
Ve directamente a la Consola de Together AI para crear una nueva clave API. O sigue estos pasos:
  1. Crea una cuenta en api.together.ai o inicia sesión si ya tienes una
  2. En el panel principal, desplázate hacia abajo hasta la sección “Administrar Cuenta”
  3. En la tarjeta “Claves API”, haz clic en el botón “Administrar Claves”
  4. Haz clic en el botón “Agregar Clave”
  5. Dale un nombre como ‘Kodus’ o cualquier nombre descriptivo
  6. Copia tu clave API, ¡y estás listo para comenzar!
Las cuentas nuevas vienen con $1 de crédito para comenzar de forma gratuita.

Cómo usar

System Requirements

  • Docker (latest stable version)
  • Node.js (latest LTS version)
  • Yarn or NPM (latest stable version)
  • Domain name or fixed IP (for external deployments)
  • 3000: Kodus Web App
  • 3001: API
  • 3332: Webhooks
  • 5672, 15672, 15692: RabbitMQ (AMQP, management, metrics)
  • 3101: MCP Manager (API, metrics)
  • 5432: PostgreSQL - 27017: MongoDB
Internet access is required if you plan to connect to cloud-based Git services (GitHub, GitLab, Bitbucket) or cloud LLM providers (OpenAI, Anthropic, etc.). For self-hosted Git tools and on-prem LLMs within your network, external internet access is optional.

Domain Name Setup (Optional)

If you're planning to integrate Kodus with cloud-based Git providers (GitHub, GitLab, or Bitbucket), you'll need public-facing URLs for both the Kodus Web App and its API. This allows your server to receive webhooks for proper Code Review functionality and ensures correct application behavior. We recommend setting up two subdomains:
  • One for the Web Application, e.g., kodus-web.yourdomain.com.
  • One for the API, e.g., kodus-api.yourdomain.com.
Webhooks are handled by a separate service (port 3332). You can either:
  • Use a dedicated webhooks subdomain, e.g., kodus-webhooks.yourdomain.com, or
  • Keep using the API domain and route /github/webhook, /gitlab/webhook, etc. to the webhooks service in your reverse proxy.
Both subdomains should have DNS A records pointing to your server's IP address. Later in this guide, we will configure a reverse proxy (Nginx) to route requests to these subdomains to the correct internal services. This setup is essential for full functionality, including webhooks and authentication.
Note: If you're only connecting to self-hosted Git tools on your network and do not require public access or webhooks, you might be able to use a simpler setup, but this guide focuses on public-facing deployments.

Setup

1

Clone the installer repository

git clone https://github.com/kodustech/kodus-installer.git
cd kodus-installer
2

Copy the example environment file

cp .env.example .env
3

Generate secure keys for the required environment variables

./generate-keys.sh
4

Edit the environment file

Edit .env with your values using your preferred text editor.
nano .env
See Environment Variables Configuration for detailed instructions.
5

Run the installer

./scripts/install.sh
6

Success 🎉

When complete, Kodus Services should be running on your machine. You can verify your installation using the following script:
./scripts/doctor.sh
7

Access the web interface

Once you access the web interface for the first time, you'll need to:
  1. Create your admin account - This will be the first user with full system access
  2. Configure your Git provider - Connect GitHub, GitLab, or Bitbucket following the on-screen instructions
  3. Select repositories for analysis - Choose which code repositories Kody will review
For detailed steps on the initial configuration process, refer to our Getting Started Guide.

Configurar Together AI en el Archivo de Entorno

Edita tu archivo .env y configura los ajustes principales. Para la Integración de LLM, usa Together AI en Modo Fijo:
# Configuración principal del sistema (actualiza con tus dominios)
WEB_HOSTNAME_API="kodus-api.yourdomain.com"    
WEB_PORT_API=443                               
NEXTAUTH_URL="https://kodus-web.yourdomain.com"

# Claves de seguridad (genera con los comandos openssl anteriores)
WEB_NEXTAUTH_SECRET="your-generated-secret"
WEB_JWT_SECRET_KEY="your-generated-secret"
API_CRYPTO_KEY="your-generated-hex-key"
API_JWT_SECRET="your-generated-secret"
API_JWT_REFRESHSECRET="your-generated-secret"

# Configuración de la base de datos
API_PG_DB_PASSWORD="your-secure-db-password"
API_MG_DB_PASSWORD="your-secure-db-password"

# Configuración de Together AI (Modo Fijo) 
API_LLM_PROVIDER_MODEL="meta-llama/Meta-Llama-4-Maverick-Instruct"  # Elige tu modelo preferido
API_OPENAI_FORCE_BASE_URL="https://api.together.xyz/v1"             # URL de la API de Together AI  
API_OPEN_AI_API_KEY="your-together-api-key"                         # Tu clave API de Together AI

# Webhooks del proveedor de Git (elige tu proveedor)
API_GITHUB_CODE_MANAGEMENT_WEBHOOK="https://kodus-api.yourdomain.com/github/webhook"
# o API_GITLAB_CODE_MANAGEMENT_WEBHOOK="https://kodus-api.yourdomain.com/gitlab/webhook"
# o GLOBAL_BITBUCKET_CODE_MANAGEMENT_WEBHOOK="https://kodus-api.yourdomain.com/bitbucket/webhook"
Las URLs de webhook deben alcanzar el servicio de Webhooks (puerto 3332). Usa un dominio dedicado para webhooks o enruta /.../webhook al puerto 3332 en tu proxy inverso.
El Modo Fijo es ideal para Together AI porque proporciona APIs compatibles con OpenAI con precios competitivos y acceso a modelos de código abierto de vanguardia.

Run the Installation Script

Looking for more control? Check out our docker-compose file for manual deployment options.
Set the proper permissions for the installation script:
chmod +x scripts/install.sh
Run the script:
./scripts/install.sh

What the Installer Does

Our installer automates several important steps:
  • Verifies Docker installation
  • Creates networks for Kodus services
  • Clones repositories and configures environment files
  • Runs docker-compose to start all services
  • Executes database migrations
  • Seeds initial data
🎉 Success! When complete, the Kodus Web App and backend services (API, worker, webhooks, MCP manager) should be running on your machine. You can verify your installation by visiting http://localhost:3000 - you should see the Kodus Web Application interface.
Code Review features will not work yet unless you complete the reverse proxy setup. Without this configuration, external Git providers cannot send webhooks to your instance.

Configurar Proxy Inverso (Para Producción)

Para webhooks y acceso externo, configura Nginx:
# Aplicación web (puerto 3000)
server {
    listen 80;
    server_name kodus-web.yourdomain.com;
    location / {
        proxy_pass http://localhost:3000;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header X-Forwarded-Proto $scheme;
    }
}

# API (puerto 3001)  
server {
    listen 80;
    server_name kodus-api.yourdomain.com;
    location ~ ^/(github|gitlab|bitbucket|azure-repos)/webhook {
        proxy_pass http://localhost:3332;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header X-Forwarded-Proto $scheme;
    }

    location / {
        proxy_pass http://localhost:3001;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header X-Forwarded-Proto $scheme;
    }
}

Verificar la Integración con Together AI

Además de la verificación básica de instalación, confirma que Together AI está funcionando:
# Verificar específicamente la conexión con la API de Together AI
docker-compose logs api worker | grep -i together
Para información detallada sobre configuración de SSL, monitoreo y configuraciones avanzadas, consulta nuestra guía de despliegue completa.

Solución de problemas

  • Verifica que tu clave API sea correcta y esté activa en la Consola de Together AI
  • Comprueba si tienes créditos suficientes en tu cuenta de Together AI
  • Asegúrate de que no haya espacios extra en tu archivo .env
  • Las cuentas nuevas reciben $1 en créditos gratuitos
  • Verifica que el nombre del modelo esté correctamente escrito en tu configuración
  • Comprueba que el modelo esté disponible en la biblioteca de modelos actual de Together AI
  • Prueba con un modelo diferente de nuestra lista de recomendados
  • Consulta la documentación de modelos de Together AI
  • Verifica que tu servidor tenga acceso a internet para alcanzar api.together.xyz
  • Comprueba si hay restricciones de firewall
  • Revisa los registros de la API/worker para mensajes de error detallados
  • Asegúrate de estar usando el endpoint de API correcto
  • Together AI proporciona límites de tasa generosos (hasta 6000 solicitudes/min para LLMs)
  • Verifica tu uso actual en el panel de Together AI
  • Considera actualizar a un nivel superior para obtener límites aumentados
  • Monitorea tus patrones de uso para optimizar las llamadas a la API