HiWay2LLM
/
Documentation
EN
FR
ES
Tableau de bord
Parcourir la doc
Démarrage
Démarrage rapide
SDK & CLI open-source
Drop-in avec votre SDK existant
Authentification
Concepts
Comment fonctionne le routage intelligent
Modèle tarifaire
Guardian — système anti-boucle
Budget Control
Fallback fournisseur
Cache sémantique (Scale+)
Masquage PII
A/B Experiments (Scale+)
Enveloppe de réponse
Streaming des réponses
Tool calls et function calls
System prompts et routage
Fonctionnalités
Éditer les règles Guardian
Fixer un plafond Budget Control
Activer le cache sémantique
Activer le masquage PII
Lancer une expérience A/B
Intégrations
SDK OpenAI Python
SDK OpenAI Node.js
LangChain
Vercel AI SDK
Workflows n8n
curl et HTTP brut
Migrer
Depuis OpenRouter
Depuis LiteLLM
Depuis Vercel AI Gateway
Depuis Portkey
Depuis les APIs providers (OpenAI / Anthropic)
Référence API
POST /v1/chat/completions
GET /v1/me
GET /v1/models
Codes d'erreur
Dépannage
402 — Quota ou budget dépassé
401 — Non authentifié
429 — Rate limité
502 — Upstream indisponible
FAQ
Glossaire
Changelog
Page introuvable
Cette page de documentation n'existe pas ou a été déplacée.
Retour à l'index de la documentation