OpenRouter: 500 modelos de Inteligencia Artificial en una API
Post
Cancel

OpenRouter: 500 modelos de Inteligencia Artificial en una API

Logo de OpenRouter con múltiples modelos de Inteligencia Artificial conectados

El otro día alguien me comentó que tenía problemas para usar modelos de Inteligencia Artificial gratuitos en la nube. Esta persona necesitaba algo local, así que OpenRouter no le sirve. Pero hay quien no conoce OpenRouter y puede venirle bien para usarlo con cualquier agente o herramienta de Inteligencia Artificial.

Gestionar API keys de cinco o seis proveedores diferentes se convierte en un problema cuando escalas. Tienes claves caducadas aquí, saldos en plataformas distintas allá, y cada herramienta necesita configuración propia. OpenRouter resuelve exactamente eso.

OpenRouter es un gateway unificado. Una sola API key, un solo endpoint, y puedes usar más de 500 modelos de docenas de proveedores. Compatible con OpenAI, cambiar de proveedor es solo cambiar una línea de código.

¿Qué es OpenRouter exactamente?

Un gateway de Inteligencia Artificial es un intermediario entre tu aplicación y los diferentes proveedores de modelos. En lugar de gestionar API keys de OpenAI, Anthropic, Google, Meta y una docena más, gestionas una sola: la de OpenRouter.

Lo que hace OpenRouter por debajo:

  • Recibe tu petición con el formato OpenAI
  • La redirige al proveedor correcto según el modelo que pides
  • Te devuelve la respuesta en el mismo formato

Esto significa que si mañana quieres cambiar de GPT-4o a Claude Sonnet, solo cambias el nombre del modelo en una línea. No tocas la autenticación, no cambias el formato de la petición, no instalas un SDK diferente.

También centraliza la facturación. En lugar de tener saldo en cinco plataformas distintas, cargas saldo una vez en OpenRouter y lo distribuyes entre todos los modelos que uses.

Modelos gratuitos

Una de las mejores cosas de OpenRouter: tiene modelos gratuitos. No son cuatro, son casi 30. Algunos destacados:

  • Qwen3 Coder 480B — el mejor gratuito para código
  • DeepSeek R1 — excelente para razonamiento y análisis
  • Llama 3.3 70B — el clásico de Meta, fiable para tareas generales
  • Gemma 4 — la familia de Google, ligero y rápido
  • MiniMax M2.5 — de los más potentes para desarrollo, incluso para OpenClaw (versión 2.7 disponible próximamente)

El router openrouter/free escoge automáticamente el mejor modelo gratuito disponible según el tipo de tarea: visión, tool calling, contexto largo. No tienes que pensar qué modelo usar para las pruebas.

Límites típicos de los modelos gratuitos: 20 peticiones por minuto y 200 al día. Para desarrollo y pruebas es más que suficiente. Sin tarjeta de crédito necesaria para empezar.

Si necesitas más capacidad, los modelos de pago de OpenRouter suelen ser competitivos en precio con los proveedores directos, con la ventaja añadida de la centralización y la visibilidad de costes en un solo panel.

Cómo empezar

  1. Crea una cuenta en openrouter.ai.
  2. Ve a la sección Keys y genera una API key.
  3. Configura tu herramienta o proyecto con base_url: https://openrouter.ai/api/v1 y tu API key.
  4. Elige el modelo. Para empezar sin coste, usa openrouter/free.

No hay que instalar nada adicional si ya usas el SDK de OpenAI — es exactamente el mismo cliente con base URL y clave diferentes.

El proceso completo lleva menos de cinco minutos. La primera llamada con un modelo gratuito no tiene ningún coste y puedes validar que todo funciona antes de comprometer ningún presupuesto.

Por qué usarlo

  1. Centralización — una sola API key para todos los modelos
  2. Gratuito para empezar — casi 30 modelos sin coste ni tarjeta
  3. Fallback automático — si un modelo falla o se satura, OpenRouter prueba otro sin que toques nada
  4. Sin lock-in — tu código funciona con proveedores directos también; no dependes de OpenRouter
  5. Comparación de costes — puedes ver en tiempo real cuánto cuesta cada petición en cada proveedor y elegir el más económico para cada caso

El fallback automático es especialmente útil en producción. Si el modelo que configuraste tiene una interrupción, tu aplicación no deja de funcionar: OpenRouter lo redirige de forma transparente.

Para equipos que usan varios modelos según el tipo de tarea —uno para código, otro para análisis, otro para generación de texto— tener un único punto de facturación y monitorización simplifica bastante la operación.

OpenCode y OpenClaw

OpenCode y OpenClaw pueden usar OpenRouter como backend. Así tienes todos los modelos (gratuitos y de pago) centralizados, sin configurar docenas de API keys.

Solo necesitas configurar tu API key de OpenRouter en ambos entornos, y ya tienes acceso a más de 500 modelos sin tocar nada más. Puedes alternar entre Claude, GPT-4o, DeepSeek o cualquier otro modelo sin salir del mismo flujo de trabajo.

Ejemplo rápido

1
2
3
4
5
6
7
8
9
10
11
12
from openai import OpenAI

client = OpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key="tu-api-key-de-openrouter"
)

# Usar modelo gratuito
response = client.chat.completions.create(
    model="openrouter/free",
    messages=[{"role": "user", "content": "Explícame OpenRouter en una frase"}]
)

Es literalmente el mismo código que usarías con OpenAI directamente, cambiando base_url y api_key. Si ya tienes una aplicación con el SDK de OpenAI, puedes probar OpenRouter en dos líneas.

OpenRouter vs. alternativas

 OpenRouterAPI directaLangChain
Modelos disponibles500+1 proveedorMúltiples (requiere config)
Modelos gratuitos~30Pocos o ningunoDepende del proveedor
Fallback automáticoManual
Compatibilidad OpenAISolo si es OpenAI✅ (abstracción)
Dependencia extraSolo OpenRouterNingunaLangChain + proveedores
Facturación centralizadaPor proveedorPor proveedor

Para proyectos de desarrollo, OpenRouter gana en simplicidad. Para producción crítica donde prefieres cero dependencias externas, la API directa tiene sentido. LangChain añade valor si ya lo usas para orquestación, pero no vale la pena instalarlo solo para unificar proveedores.

## Preguntas frecuentes
¿OpenRouter es gratuito? OpenRouter ofrece casi 30 modelos gratuitos sin necesidad de tarjeta de crédito. Para los modelos de pago, recargas saldo y pagas por uso. Los precios son transparentes: puedes ver el coste por millón de tokens de cada modelo antes de usarlo.
¿Puedo usar OpenRouter con herramientas como OpenCode? Sí, tanto OpenCode como OpenClaw pueden usar OpenRouter como backend configurando simplemente la API key y el endpoint. Cualquier herramienta compatible con la API de OpenAI funciona con OpenRouter sin modificaciones adicionales.
¿Qué límites tienen los modelos gratuitos? Los límites típicos son 20 peticiones por minuto y 200 al día. Varían por modelo: algunos tienen límites más generosos, otros más estrictos. Para desarrollo y pruebas es más que suficiente; para producción, los modelos de pago no tienen esos límites.
¿Es seguro usar OpenRouter? OpenRouter actúa como proxy: tu petición pasa por sus servidores antes de llegar al proveedor final. No entrenan con tus datos. Si tienes requerimientos de privacidad estrictos, revisa su política de privacidad y valora si el proveedor directo encaja mejor con tu caso.
¿Qué pasa si OpenRouter tiene una interrupción? Si OpenRouter cae, tu aplicación no llega al modelo. Es la principal desventaja de usar un intermediario. Para producción crítica, considera tener una ruta de fallback hacia el proveedor directo. Para desarrollo y proyectos internos, el riesgo es asumible dado el ahorro en complejidad.

Compártelo si te ha resultado útil.

¿Quieres implementar esto en tu empresa? Hablemos de tu proyecto.

¿Usas algún otro agregador de modelos? Escríbeme o deja un comentario.

Y… hasta aquí por hoy!

Loading comments from Disqus ...

This post is licensed under CC BY 4.0 by the author.