Depuis OpenRouter
Change deux lignes, garde tout le reste de ton intégration.
Ce guide explique comment migrer un client OpenRouter vers HiWay2LLM. Les deux endpoints parlent le protocole OpenAI chat-completions, donc le diff de code est minimal — tu remplaces la base_url et la clé API, le reste (messages, streaming, tools, retries) reste identique. De bout en bout : moins de 10 minutes.
Prérequis
Un compte HiWay (inscription sur /auth) et au moins une clé provider configurée dans Tableau de bord → Paramètres → Fournisseurs. HiWay est BYOK — contrairement au wallet hébergé d'OpenRouter, tu appelles les providers avec tes propres clés et ils te facturent directement au tarif wholesale.
Étape 1 : récupère ta clé API HiWay
Ouvre Tableau de bord → Clés et clique sur Nouvelle clé. Ta clé s'affiche une seule fois et commence par hw_live_. Copie-la immédiatement dans ton gestionnaire de secrets — on ne stocke que le hash SHA-256 et on ne peut pas la récupérer.
Étape 2 : change ta config
Sur OpenRouter tu pointais sur https://openrouter.ai/api/v1 avec une clé sk-or-v1-..., probablement avec des slugs de modèle comme anthropic/claude-3.5-sonnet. Sur HiWay tu pointes sur https://app.hiway2llm.com/v1 avec une clé hw_live_..., et tu peux garder tes ids de modèle spécifiques ou passer à model: "auto" pour laisser le router choisir le modèle le moins cher capable de répondre.
from openai import OpenAI
client = OpenAI(
base_url="https://app.hiway2llm.com/v1",
api_key="hw_live_VOTRE_CLE",
)
response = client.chat.completions.create(
model="auto", # ou "anthropic/claude-sonnet-4-5", "openai/gpt-4o", ...
messages=[{"role": "user", "content": "Explique l'entropie en une phrase"}],
)
print(response.choices[0].message.content)
print("Routé vers :", response.model)Étape 3 : vérifie
Envoie une requête et inspecte la réponse. Regarde les headers X-HiWay-Routed-Model et X-HiWay-Routed-Tier (ou l'objet _hiway sur le body JSON) pour confirmer que le router a choisi un modèle. Ouvre Tableau de bord → Usage pour voir la timeline en direct — si la requête y apparaît, tu es bien branché.
Gotchas spécifiques à OpenRouter
- Nommage des modèles : OpenRouter utilise des slugs comme
anthropic/claude-3.5-sonnetavec le suffixe de date intégré. HiWay utilise ses propres ids canoniques (anthropic/claude-sonnet-4-5,openai/gpt-4o, etc.) — ou passe simplement"auto"et laisse-nous choisir. Consulte Tableau de bord → Models pour la liste complète exposée par tes providers activés. - Streaming : identique des deux côtés — passe
stream: trueet consomme les chunks SSE de la même façon. Aucun changement côté client. - Tools / function calling : identique via les champs OpenAI
tools/tool_choice. Rien à réécrire. - Catalogue de modèles : OpenRouter agrège des providers communautaires (Together, Fireworks, DeepInfra, finetunes open source). HiWay route vers les providers officiels que tu apportes via BYOK (OpenAI, Anthropic, Google, Mistral, DeepSeek). Si tu dépendais d'un modèle communautaire niche sur OpenRouter, vérifie notre catalogue avant de migrer ce workload.
- Comptabilité : OpenRouter montre un solde de crédits dans leur dashboard. HiWay sépare les choses — les charges des providers arrivent directement sur ta carte OpenAI/Anthropic au tarif wholesale, et HiWay te facture un abonnement mensuel fixe pour la couche de routage. Pas de marge par token.
C'est fini
Moins de 10 minutes de bout en bout. Contacte support@hiway2llm.com si tu bloques.