Depuis LiteLLM
Alternative managée à ton router self-hosted — quand le coût ops ne vaut plus la peine.
Ce guide couvre la migration d'un déploiement LiteLLM (Proxy self-hosted ou LiteLLM Cloud) vers HiWay2LLM. Si ton équipe en a marre de maintenir la config du proxy, le Redis pour les rate limits, le Postgres pour les logs et la stack d'alerting — voici l'équivalent entièrement managé. Compte ~10 minutes pour le swap, plus le temps nécessaire pour ré-exprimer ta config fallback et observabilité dans le dashboard HiWay.
Prérequis
Un compte HiWay et au moins une clé provider configurée dans Tableau de bord → Paramètres → Fournisseurs. Si tu utilisais les alias de modèle LiteLLM (par ex. gpt-4 pointant vers azure/gpt-4-turbo), note le vrai id upstream que tu veux sur HiWay avant de commencer.
Étape 1 : récupère ta clé API HiWay
Ouvre Tableau de bord → Clés et clique sur Nouvelle clé. Copie la clé hw_live_ une fois — on ne stocke que son hash SHA-256.
Étape 2 : change ta config
Sur LiteLLM Proxy tu pointais ton app sur http://ton-proxy:4000 (ou l'endpoint LiteLLM Cloud) avec une master key sk-litellm-..., et LiteLLM dispatchait vers le bon upstream selon ton config.yaml. Sur HiWay tu pointes sur https://app.hiway2llm.com/v1 avec une clé hw_live_..., et le router dispatch selon tes providers activés et ton profil de routage — pas de YAML à maintenir.
from openai import OpenAI
client = OpenAI(
base_url="https://app.hiway2llm.com/v1",
api_key="hw_live_VOTRE_CLE",
)
response = client.chat.completions.create(
model="auto", # traduction des alias LiteLLM via "auto" + providers activés
messages=[{"role": "user", "content": "Résume notre rapport Q3"}],
)
print(response.choices[0].message.content)Étape 3 : vérifie
Envoie une requête, vérifie X-HiWay-Routed-Model sur la réponse, et ouvre Tableau de bord → Usage pour la voir apparaître. Si tu pipais tes logs LiteLLM vers Langfuse / Helicone / Datadog, tu peux maintenant lire les mêmes données depuis Tableau de bord → Analytics ou les récupérer via l'endpoint /v1/usage.
Gotchas spécifiques à LiteLLM
- Les customisations self-hosted disparaissent : si tu avais des callbacks custom, un dispatcher modifié ou patché la source LiteLLM, ça ne suit pas. HiWay est un service managé — l'avantage c'est fini la maintenance, l'inconvénient c'est que tu échanges cette surface pour notre feature set.
- `config.yaml` → paramètres dashboard : les credentials provider vont dans Paramètres → Fournisseurs, les alias de modèle sont remplacés par
model: "auto"+ sélection des providers activés, et les rate limits passent en paramètres par-clé dans Tableau de bord → Clés. - Règles de fallback : le bloc
fallbacksde LiteLLM est remplacé par le fallback automatique HiWay (retry sur le modèle le moins cher du même tier, max 2 retries). Si tu avais des chaînes de fallback élaborées avec des ordonnancements spécifiques, vérifie que le comportement par défaut couvre ton besoin — sinon épinglemodelexplicitement dans le code. - Hooks d'observabilité : les
success_callback/failure_callbackde LiteLLM (Langfuse, Helicone, S3) ne sont pas pluggables dans HiWay. À la place, tire les analytics depuis l'API HiWay (/v1/usage,/v1/events) et forwarde où tu veux. - Master key vs clés par-service : si tu utilisais une seule master key LiteLLM pour tout, splitte maintenant — crée une clé
hw_live_par service dans Tableau de bord → Clés pour que Guardian et les rate limits puissent scoper par appelant.
C'est fini
Moins de 10 minutes pour swapper l'endpoint, plus le temps de reconfigurer fallback et observabilité dans le dashboard. Contacte support@hiway2llm.com si tu bloques.