Depuis Vercel AI Gateway

Reste sur Vercel si tu veux. Remplace juste l'upstream : le gateway Vercel par HiWay.

Ce guide couvre la migration d'une intégration Vercel AI Gateway vers HiWay2LLM. Le Vercel AI SDK continue de fonctionner — HiWay est OpenAI-compatible, donc le provider @ai-sdk/openai (ou createOpenAI) se branche directement. Tu remplaces uniquement le gateway upstream, pas ton framework. De bout en bout : moins de 10 minutes.

Prérequis

Un compte HiWay et au moins une clé provider configurée dans Tableau de bord → Paramètres → Fournisseurs. Tu gardes ton projet Vercel existant et l'AI SDK — rien ne change de ce côté.

Étape 1 : récupère ta clé API HiWay

Ouvre Tableau de bord → Clés et clique sur Nouvelle clé. Mets la valeur hw_live_ dans les variables d'environnement de ton projet Vercel (par ex. HIWAY_API_KEY) et redéploie.

Étape 2 : change ta config

Tu utilisais probablement @ai-sdk/openai avec baseURL pointant sur l'endpoint du gateway Vercel et une AI_GATEWAY_API_KEY. Remplace la baseURL par HiWay et la clé par HIWAY_API_KEY. Les appels generateText / streamText / generateObject dans le reste de ton code restent identiques.

import { createOpenAI } from "@ai-sdk/openai";
import { generateText } from "ai";

const hiway = createOpenAI({
  baseURL: "https://app.hiway2llm.com/v1",
  apiKey: process.env.HIWAY_API_KEY,
});

const { text } = await generateText({
  model: hiway.chat("auto"),
  prompt: "Écris un pitch produit en deux phrases pour un SaaS logistique",
});

console.log(text);

Étape 3 : vérifie

Déclenche une de tes routes Vercel qui appelle le modèle, puis consulte Tableau de bord → Usage sur HiWay pour confirmer que la requête est bien arrivée. Le champ _hiway.routed_model sur le body de la réponse te dit quel modèle a été choisi — ou inspecte le header X-HiWay-Routed-Model si tu as accès à la réponse brute.

Gotchas spécifiques à Vercel AI Gateway

  • L'AI SDK continue de fonctionner : le provider @ai-sdk/openai est l'OpenAI-compatible — HiWay est OpenAI-compatible, donc createOpenAI({ baseURL, apiKey }) est toute l'intégration. Pas de swap de SDK.
  • Les champs de provider metadata peuvent différer : le gateway Vercel expose providerMetadata avec des champs gateway-specific. HiWay renvoie son propre objet _hiway sur le body de la réponse et les headers X-HiWay-Routed-Model / X-HiWay-Routed-Tier. Si tu lisais providerMetadata, mets à jour ces endroits.
  • L'observabilité sort de Vercel : les logs Gateway Vercel apparaissent dans le dashboard Vercel. Les logs de routage et la timeline d'usage HiWay vivent dans le dashboard HiWay (Usage, Analytics). Garde les request logs Vercel pour la couche Next.js / edge — cette partie ne change pas.
  • Les caps d'usage bougent aussi : si tu avais configuré un plafond de dépense sur le gateway Vercel, redéfinis-le dans Tableau de bord → Budget Control (plafond mensuel BYOK upstream avec trois verdicts : DOWNGRADE, LIGHT_ONLY, BLOCK).
  • Tu restes en BYOK : HiWay est BYOK — l'inférence est facturée par OpenAI / Anthropic / etc. directement sur ta carte chez eux, au tarif wholesale. Pas de marge par token de HiWay.

C'est fini

Moins de 10 minutes. Contacte support@hiway2llm.com si tu bloques.