Vercel AI Gateway en producción: fortalezas, límites, alternativas
Cuándo la gateway de Vercel es la elección correcta, y cuándo gana un router dedicado
El Vercel AI Gateway es excelente para apps Vercel-nativas. No es la elección correcta para todos los equipos. Aquí tienes la frontera honesta, con casos de uso concretos.
Vercel ha shipeado su gateway IA y es una de las opciones mejor integradas si estás en el ecosistema Vercel. No es un cumplido a medias — sinceramente, si tu app es Next.js, deployada en Vercel, usando el Vercel AI SDK, la integración es lo más cercano a invisible que puede ser una integración de gateway.
La pregunta de verdad es: ¿qué pasa cuando una sola de estas tres hipótesis no se cumple? ¿Y en los casos en que las tres se cumplen, pero otro eje — región de hosting, preferencia BYOK, pricing a escala — pesa más?
Aquí va la respuesta justa.
Lo que el Vercel AI Gateway hace bien
Integración con el Vercel AI SDK
El Vercel AI SDK es software bueno de verdad. Abstrae streaming, tool use, structured outputs entre proveedores con una ergonomía TypeScript limpia. Añadir la gateway es un cambio de config — ya usas el SDK, activas la gateway, y tienes fallback, observability y facturación unificada sin reescribir nada.
Es la posición más fuerte del Vercel AI Gateway. Si estás exactamente en ese punto, deja de leer y úsalo.
Deploy para Next.js
Si tu app Next.js ya deploya en Vercel, la gateway vive en el mismo plano de control que el resto de tu infra. Un dashboard, una factura, una superficie de soporte. Las env vars pasan por los settings de Vercel existentes. No hay onboarding de vendor nuevo.
Proximidad de red edge
La red edge de Vercel es real y rápida. Para las features IA user-facing donde la latency hacia la gateway pesa, la gateway corriendo en el edge significa menos hops cross-region antes de que tu request golpee al proveedor real.
UI de observability
La UI de observability de Vercel para la gateway es cuidada, consistente con sus otras superficies producto, y te da breakdowns por request, resúmenes de coste, percentiles de latency sin setup adicional.
Dónde el Vercel AI Gateway es menos convincente
Seamos precisos sobre los límites.
No estás en Vercel
Es el punto gordo. La propuesta de valor del Vercel AI Gateway está estrechamente acoplada a la plataforma Vercel. Si tu app deploya en AWS, GCP, Fly, Render, una VM Hetzner, tu propio Kubernetes, o un VPS francés, mucha de la ventaja de integración desaparece. Pagas la gateway por features que routers especializados ofrecen igual o mejor.
Quieres garantías de residencia de datos UE
Vercel es una empresa US con un CDN global. Para los equipos que necesitan una residencia de datos UE dura — no "nuestro CDN tiene un edge UE" sino "los prompts y completions de mi persona concernida se procesan en UE bajo una infra controlada UE" — los compromisos del Vercel AI Gateway son menos precisos que los de las alternativas UE-hosted dedicadas como HiWay o un LiteLLM self-hosted en región UE.
Es una conversación de compliance, no de features. Si tu equipo legal pide un DPA listando el procesamiento UE-only, los servicios US a menudo no lo pueden proporcionar limpiamente para todos los componentes, incluso con opciones regionales disponibles.
Quieres BYOK como dios manda
El Vercel AI Gateway puede funcionar con tus keys de proveedor en ciertas configs, pero el modelo de facturación y de cuenta subyacente es Vercel-céntrico. Los routers BYOK dedicados hacen de la propiedad del proveedor un concepto first-class — tus keys viven en tus cuentas de proveedor, los proveedores te facturan directamente, la gateway está puramente en el camino de control.
Tu gasto está concentrado y creciendo
El pricing metered por encima de los costes del proveedor es suave a bajo volumen. A volumen más alto — una vez que estás corriendo millones de requests LLM al mes — los costes metered hacen compound. Un modelo de pricing flat por request (Build a 15 €, Scale a 39 €, o Business a 249 €/mes da igual hacia qué modelo enrutas) puede acabar materialmente más barato a escala — y el smart routing por encima corta típicamente entre el 40-85 % de la factura de inferencia independientemente del volumen.
Quieres routing basado en inteligencia
El Vercel AI Gateway soporta el fallback de proveedor (intenta A, luego B). Está menos especializado en routing inteligente basado en complejidad (envía los prompts simples hacia un modelo más barato, envía los prompts duros hacia un flagship, route basado en un análisis de prompt en menos de 1 ms). Los routers dedicados como HiWay construyen su producto core alrededor de esto.
Quieres controles de presupuesto profundos
Presupuestos por endpoint, auto-downgrade en umbrales de gasto, detección de burn-rate con alertas Slack, detección de bucles — la gateway de Vercel cubre lo básico pero no está optimizada como superficie de control de coste. La ingeniería de coste es una preocupación secundaria para una plataforma cuyo trabajo principal es "hacer que las apps Next.js sean fáciles de deployar".
La decisión de cuándo-usar
Aquí va el árbol de decisión honesto:
| Situación | Best pick |
|---|---|
| Next.js + Vercel + Vercel AI SDK, gasto pequeño | Vercel AI Gateway |
| Next.js + Vercel + Vercel AI SDK, gasto en crecimiento en UE | Considerar HiWay o LiteLLM UE para BYOK + residencia |
| No estás en Vercel, cualquier tamaño | Router dedicado (HiWay, LiteLLM, Portkey, Helicone) |
| Requisito duro de residencia UE | HiWay, LiteLLM UE-hosted |
| Router basado en inteligencia como feature core | HiWay, Martian, LiteLLM con reglas custom |
| Checklist de compliance enterprise | Portkey, HiWay tier enterprise |
| OSS requerido | LiteLLM |
| Solo prototipar | OpenRouter, Requesty, o APIs directas |
Sin tarjeta de crédito
Cómo se ve la migración (si dejas Vercel AI Gateway)
Si ya usas el Vercel AI Gateway con el Vercel AI SDK y quieres migrar, el cambio de código es pequeño porque HiWay y el Vercel AI SDK respetan los dos la convención compatible OpenAI.
Antes (Vercel AI Gateway):
import { gateway } from "@ai-sdk/gateway";
import { streamText } from "ai";
const result = await streamText({
model: gateway("openai/gpt-4.1"),
prompt: "Hello",
});
Después (HiWay, quedándote en el Vercel AI SDK):
import { createOpenAI } from "@ai-sdk/openai";
import { streamText } from "ai";
const hiway = createOpenAI({
baseURL: "https://app.hiway2llm.com/v1",
apiKey: process.env.HIWAY_API_KEY,
});
const result = await streamText({
model: hiway("gpt-4-1"),
prompt: "Hello",
});
Mismo SDK, mismo streaming, mismas APIs de structured output. Cambias la factory gateway por un proveedor OpenAI apuntando a HiWay. El resto de tu código Vercel AI SDK no se toca.
Cómo se ve quedarse en Vercel AI Gateway
Si después de leer esto piensas que el Vercel AI Gateway sigue siendo el fit correcto — sinceramente, para muchos equipos lo es — el consejo es: empuja la integración a fondo. Usa la UI de observability. Configura los fallbacks de proveedor. Usa el pinning de versión de modelo. Es la superficie más fuerte de la gateway, y vas a sacar más tratándola como un trozo de infra Vercel-nativa que como un router genérico.
Una palabra sobre los bundles
Los bundles plataforma como Vercel — donde hosting, gateway, observability y analytics vienen todos de un solo vendor — son operativamente prácticos y llevan un riesgo estructural. El riesgo es que las features bundleadas raras veces son best-in-class en un solo eje, y con el tiempo acumulas una dependencia con la forma precisa del bundle. Cuando quieres cambiar una pieza, sueles acabar cambiando varias.
No es una crítica a Vercel; es cierto de cualquier bundle plataforma (AWS, GCP, Cloudflare, Render). La pregunta a hacerse regularmente es: "¿Elegiría aún cada pieza de este stack individualmente si eligiera hoy?". Si la respuesta es sí, el bundle funciona. Si no, vale la pena pensar qué piezas unbundlear primero.
La gateway LLM es a menudo un buen candidato para unbundlear porque la superficie de integración es estrecha (unas pocas llamadas API) y el paisaje vendor es rico.
El resumen honesto
El Vercel AI Gateway no es un mal producto. Es una gateway bien construida, bien integrada para la población precisa de equipos que viven en el ecosistema Vercel. Para esos equipos, la ventaja de integración es real y a menudo decisiva.
Para los equipos fuera de ese ecosistema — o dentro pero con restricciones duras de hosting UE, BYOK, o coste a escala — los routers dedicados ganan típicamente. No porque sean más vistosos, sino porque su foco producto es más estrecho y sus incentivos apuntan más directamente hacia la cosa por la que compras una gateway en primer lugar.
Elige la que encaje con la forma de tu equipo, no la que tenga la demo más cuidada.
Próximo: el routing LLM y el RGPD — lo que las gateways US-hosted no te cuentan.
Was this useful?
Comments
Be the first to comment.