Depuis Vercel AI Gateway
Reste sur Vercel si tu veux. Remplace juste l'upstream : le gateway Vercel par HiWay.
Ce guide couvre la migration d'une intégration Vercel AI Gateway vers HiWay2LLM. Le Vercel AI SDK continue de fonctionner — HiWay est OpenAI-compatible, donc le provider @ai-sdk/openai (ou createOpenAI) se branche directement. Tu remplaces uniquement le gateway upstream, pas ton framework. De bout en bout : moins de 10 minutes.
Prérequis
Un compte HiWay et au moins une clé provider configurée dans Tableau de bord → Paramètres → Fournisseurs. Tu gardes ton projet Vercel existant et l'AI SDK — rien ne change de ce côté.
Étape 1 : récupère ta clé API HiWay
Ouvre Tableau de bord → Clés et clique sur Nouvelle clé. Mets la valeur hw_live_ dans les variables d'environnement de ton projet Vercel (par ex. HIWAY_API_KEY) et redéploie.
Étape 2 : change ta config
Tu utilisais probablement @ai-sdk/openai avec baseURL pointant sur l'endpoint du gateway Vercel et une AI_GATEWAY_API_KEY. Remplace la baseURL par HiWay et la clé par HIWAY_API_KEY. Les appels generateText / streamText / generateObject dans le reste de ton code restent identiques.
import { createOpenAI } from "@ai-sdk/openai";
import { generateText } from "ai";
const hiway = createOpenAI({
baseURL: "https://app.hiway2llm.com/v1",
apiKey: process.env.HIWAY_API_KEY,
});
const { text } = await generateText({
model: hiway.chat("auto"),
prompt: "Écris un pitch produit en deux phrases pour un SaaS logistique",
});
console.log(text);Étape 3 : vérifie
Déclenche une de tes routes Vercel qui appelle le modèle, puis consulte Tableau de bord → Usage sur HiWay pour confirmer que la requête est bien arrivée. Le champ _hiway.routed_model sur le body de la réponse te dit quel modèle a été choisi — ou inspecte le header X-HiWay-Routed-Model si tu as accès à la réponse brute.
Gotchas spécifiques à Vercel AI Gateway
- L'AI SDK continue de fonctionner : le provider
@ai-sdk/openaiest l'OpenAI-compatible — HiWay est OpenAI-compatible, donccreateOpenAI({ baseURL, apiKey })est toute l'intégration. Pas de swap de SDK. - Les champs de provider metadata peuvent différer : le gateway Vercel expose
providerMetadataavec des champs gateway-specific. HiWay renvoie son propre objet_hiwaysur le body de la réponse et les headersX-HiWay-Routed-Model/X-HiWay-Routed-Tier. Si tu lisaisproviderMetadata, mets à jour ces endroits. - L'observabilité sort de Vercel : les logs Gateway Vercel apparaissent dans le dashboard Vercel. Les logs de routage et la timeline d'usage HiWay vivent dans le dashboard HiWay (Usage, Analytics). Garde les request logs Vercel pour la couche Next.js / edge — cette partie ne change pas.
- Les caps d'usage bougent aussi : si tu avais configuré un plafond de dépense sur le gateway Vercel, redéfinis-le dans Tableau de bord → Budget Control (plafond mensuel BYOK upstream avec trois verdicts : DOWNGRADE, LIGHT_ONLY, BLOCK).
- Tu restes en BYOK : HiWay est BYOK — l'inférence est facturée par OpenAI / Anthropic / etc. directement sur ta carte chez eux, au tarif wholesale. Pas de marge par token de HiWay.
C'est fini
Moins de 10 minutes. Contacte support@hiway2llm.com si tu bloques.