Updated April 20268 min read

HiWay2LLM vs Cloudflare AI Gateway

Comparativa honesta entre HiWay2LLM y Cloudflare AI Gateway. Por qué una edge gateway y un model router hacen jobs distintos, cómo se comparan pricing y hosting, y cuándo puedes usar incluso los dos.

En resumen

Cloudflare AI Gateway es una capa estilo CDN edge para llamadas LLM: cache, rate-limiting, analytics, muy barata a escala. HiWay es un router que elige el modelo más barato capaz por request, con BYOK y 0% de markup. Capas distintas. Cloudflare gana si tu tráfico es cacheable y quieres latency edge. HiWay gana si tu factura viene de pagar de más cada request único. Apilar los dos es un setup legítimo.

Cloudflare AI Gateway y HiWay2LLM reivindican los dos la palabra "gateway", se ponen los dos entre tu app y el LLM upstream, y son los dos OpenAI-compatible en el cable. Si lees rápido las landings, parecen sustituibles. No lo son. Operan en capas distintas y optimizan por cosas distintas.

El producto Cloudflare es una edge gateway: una capa de cache, rate-limiting y analytics desplegada en la red global de Cloudflare. Proxeas tus llamadas LLM a través de una URL como https://gateway.ai.cloudflare.com/v1/<account>/<gateway>/openai, y obtienes cache, retries, rate limits y analytics por casi nada en hobby. Es el equivalente AI de poner Cloudflare delante de un sitio.

El producto HiWay es un model router: lee cada request, scorea la complejidad en menos de 1 ms, y elige el modelo más barato capaz — con BYOK y 0% de markup sobre la inferencia. No es un CDN. No intenta cachear en el edge. Su job es que el modelo correcto responda al request.

En sentido estricto no son productos competidores. Operan en capas distintas del stack. Pero como la mayoría de los equipos solo tienen presupuesto y bandwidth de integración para un único middleware, la comparativa práctica importa.

Decisión rápida

  • ¿Una gran parte de tu tráfico LLM son preguntas repetidas (support bots, Q&A doc con hot spots, bucles de clasificación)? Los cache hits de Cloudflare son casi gratis y bajarán fuerte tu factura sobre la rebanada cacheable.
  • ¿Tu tráfico es sobre todo requests únicos (agentes, prompts custom, contexto por usuario)? El cache no sirve; necesitas un router que elija modelos más baratos por request. HiWay.
  • ¿Ya estás all-in en Cloudflare Workers y quieres todo en el edge? Cloudflare AI Gateway es la elección nativa; se pone al lado de tus Workers.
  • ¿Quieres un middleware alojado en la UE con DPA firmado y 0% markup sobre la inferencia? HiWay está alojado en OVH en la UE, con BYOK y facturación wholesale por proveedor.
  • ¿Quieres las dos cosas, cache edge Y routing por complejidad? Apílalos. Cloudflare delante para cache + rate-limiting, HiWay para el routing. Los ejemplos de migración debajo muestran la forma.

Pricing

Cloudflare AI Gateway es famosa por ser barata. En hobby/volumen bajo es gratis, y los tiers de pago escalan con las features avanzadas y el volumen (revisa las páginas de pricing de Cloudflare Workers y AI Gateway a 2026-04-22 para el detalle actual). Sigues pagando al proveedor LLM upstream por la inferencia — Cloudflare es un proxy, no un revendedor.

HiWay te factura una tarifa flat mensual por la capa de routing. La inferencia la factura el proveedor directamente a tu tarjeta al wholesale (BYOK, 0 % markup en tokens):

PlanPrecioRequests enrutados / mes
Free0 €2.500
Build15 €/mes100.000
Scale39 €/mes500.000
Business249 €/mes5.000.000
Enterprisebajo demandacuotas a medida, SSO, DPA

El smart routing también hace downgrade automático de los requests simples a modelos más baratos — 40-85 % de ahorro en un mix típico — y bate los 15 €/mes de la suscripción Build en pocas horas de uso real, a cualquier escala.

Estos precios no se comparan directamente porque hacen jobs distintos. El pricing ultra barato de Cloudflare es posible en parte porque el cache y los analytics son commodity a su escala. El pricing de HiWay está en línea con los middlewares LLM dedicados porque la inteligencia de routing es el producto. Si lo que necesitas es cache edge puro, el suelo de precio Cloudflare es imbatible. Si necesitas un router que baje el coste por request, HiWay tiene precio para ese job.

Feature por feature

FeatureHiWay2LLMCloudflare AI Gateway
Bring your own keys (BYOK)
Cloudflare proxea tu clave de proveedor; HiWay almacena los proveedores centralmente y hace fanout
Smart routing por complejidad de request
Cloudflare hace forward al modelo que especificas; no scorea los prompts
Cache edge (tipo CDN)
Es la fuerza core de Cloudflare
Dashboards analytics
Los de Cloudflare son más limpios en el edge; los de HiWay son más profundos por workspace
Rate limiting
API OpenAI-compatible
Fallback automático entre proveedores
Auto-selección de modelo por coste
Hosting UE (RGPD)
Cloudflare es global-edge; revisa los controles de residencia en tu plan
Cero logging de prompts por defecto
Los analytics de Cloudflare AI Gateway pueden capturar los prompts — configurable
Modelo de pricing
flat €/mes por tier de requests, 0% markup inferencia
muy barato en hobby, escala con volumen + features
Job principal
optimización de costes vía routing
cache edge + analytics

native · partial or plugin · not offered

Cuándo elegir cuál

Coge HiWay2LLM si

  • Tu tráfico es sobre todo requests únicos donde el cache no ayuda y la factura viene de pagar de más cada llamada
  • Quieres un router que elija el modelo más barato capaz por request en vez de hacer forward de lo que pidió tu código
  • Quieres BYOK con cero markup sobre la inferencia y un pricing flat por request
  • Estás en la UE o sirves a clientes UE y necesitas hosting RGPD + DPA firmado
  • Cero logging de prompts por defecto es un requisito de compliance
  • Quieres burn-rate alerts y topes presupuestarios duros sobre el gasto de inferencia

Coge Cloudflare AI Gateway si

  • Una gran parte de tu tráfico LLM es repetitivo y cacheable — support bots, bucles de clasificación, respuestas FAQ
  • Quieres la factura de middleware más barata posible y aceptas seguir pagando de más en la elección de modelo en sí
  • Ya estás profundamente en el ecosistema Cloudflare (Workers, Pages, KV, D1) y quieres el tráfico AI en el mismo edge
  • Necesitas latency edge global — TTFB bajo para usuarios por todo el mundo
  • Tu volumen en hobby es lo bastante pequeño para que la asignación gratuita Cloudflare te cubra entero
  • Tu dolor es 'proteger el origin' y 'rate limit a los abusos', no 'elegir un modelo más barato'

Migración — qué cambia de verdad en tu código

Si estás en Cloudflare AI Gateway, tu base URL es el patrón de proxy gateway (https://gateway.ai.cloudflare.com/v1/<account_id>/<gateway>/openai). Cambiar a HiWay es un simple swap de base URL más un cambio de clave API — el resto del código cliente no se mueve.

With Cloudflare AI Gateway
from openai import OpenAI

client = OpenAI(
  base_url="https://gateway.ai.cloudflare.com/v1/ACCOUNT_ID/GATEWAY_ID/openai",
  api_key="sk-openai-...",
)

response = client.chat.completions.create(
  model="gpt-4o",
  messages=[{"role": "user", "content": "Hola"}],
)
With HiWay2LLM
from openai import OpenAI

client = OpenAI(
  base_url="https://app.hiway2llm.com/v1",
  api_key="hw_live_...",
)

response = client.chat.completions.create(
  model="auto",  # deja que el router elija
  messages=[{"role": "user", "content": "Hola"}],
)

Dos pasos extra antes de cambiar: añade tus claves de proveedor una vez en el dashboard de HiWay (Settings → Providers), y deja model: "auto" si quieres que el router elija — o pin un modelo concreto si quieres forzarlo.

Edge gateway vs model router — dos jobs distintos

La forma más clara de ver por qué no son los mismos productos: imagina tu tráfico LLM hoy, y mira dónde se va el dinero en humo.

Si el dinero se va en requests idénticos repetidos, una edge gateway lo ahorra. Cloudflare cachea la respuesta para prompts idénticos en el edge, sirve la respuesta cacheada en unas decenas de milisegundos, y no pagas nada al LLM upstream en un cache hit. Es la forma clásica CDN, aplicada a AI. Es extraordinariamente barato porque es infra commodity corriendo a la escala de Cloudflare.

Si el dinero se va en requests únicos que pegan al modelo equivocado (demasiado caro), una edge gateway no hace nada. Cada prompt es distinto, nada cachea, y sigues pagando tarifas GPT-4 para responder a "¿cuánto es 2+2?" porque eso es lo que pidió tu código. Aquí lo que ahorra es el routing: leer el prompt, scorear su complejidad, enviar los simples a modelos clase Haiku y guardar los grandes para los jobs que lo necesitan. Es lo que hace HiWay.

Dos capas, dos jobs. No competidores — complementarios en teoría. La razón por la que los equipos suelen coger solo uno no es que el otro sea malo, es que cada middleware extra es un hop extra en el hot path, una cosa más que operar, una cosa más que puede romperse. Si un hop te da el 80% de los ahorros, paras ahí.

Algunos equipos apilan igualmente: Cloudflare como edge exterior para cache, rate-limiting y protección DDoS, después HiWay como router por dentro. El flujo es app → Cloudflare AI Gateway → HiWay → proveedor upstream. Los cache hits no tocan nunca HiWay ni el proveedor. Los cache misses pasan por HiWay, son scoreados, son enrutados al modelo más barato capaz, y pagan al wholesale. Es una arquitectura legítima si la capa de cache se gana su sitio sobre tu patrón de tráfico.

Datos & compliance

Cloudflare AI Gateway está desplegada en el edge global de Cloudflare. Es el objetivo — latency baja en todas partes. Los analytics pueden capturar prompts y respuestas según la config; revisa la doc Cloudflare actual para las opciones de residencia y la retención de datos en tu plan. Si la residencia UE estricta es un requisito duro, valida el plan antes de comprometerte.

HiWay está operado desde Francia por Mytm-Group, alojado en OVH en la UE. Cero logging de prompts por defecto — los prompts pasan por memoria y nunca se persisten. Firmamos un DPA bajo demanda (incluso en plan free) y publicamos nuestros subencargados. Si necesitas logs de requests para tu propio debug, es opt-in por workspace.

Para los equipos cuya postura de compliance exige residencia UE sin config adicional, el default HiWay pasa solo. Para los equipos ya en la infra Cloudflare con una postura de compliance que acepta el tratamiento de datos de Cloudflare, Cloudflare AI Gateway es una opción cero-nuevo-vendor.

FAQ

Preguntas frecuentes

Sí — es un stack legítimo. Pon Cloudflare AI Gateway como edge exterior para cache, rate-limiting y protección de origin, después apunta a HiWay para el smart routing en los cache misses. Los cache hits no salen nunca del edge; los cache misses son scoreados por complejidad y enrutados al modelo más barato capaz. Hop extra, una cosa más que operar, pero cada capa se gana su sitio si tu tráfico tiene a la vez rebanadas cacheables y únicas.

Balance

Cloudflare AI Gateway y HiWay son los dos legítimos, pero no son sustitutos. Cloudflare es una capa de cache y analytics edge — fantástica cuando tu tráfico es cacheable o cuando quieres todo en el edge por casi nada. HiWay es un model router que elige modelos más baratos capaces por request — fantástico cuando tu factura viene de pagar de más en las llamadas únicas.

Si tu tráfico es repetitivo, cachéalo en el edge. Si tu factura viene del sobrepago por request, enrútalo más inteligentemente. Si son las dos cosas, apílalos.

Cuando la factura sea la cifra a mover, mete tu gasto actual en el calculador de ahorros y mira qué hace con él el routing por complejidad.

Probar HiWay gratis — 2.500 req/mes

BYOK, alojado en la UE, sin tarjeta bancaria

Share