HiWay2LLMHiWay2LLM/Documentation
Tableau de bord

Démarrage

  • Démarrage rapide
  • SDK & CLI open-source
  • Drop-in avec votre SDK existant
  • Authentification

Concepts

  • Comment fonctionne le routage intelligent
  • Modèle tarifaire
  • Guardian — système anti-boucle
  • Budget Control
  • Fallback fournisseur
  • Cache sémantique (Scale+)
  • Masquage PII
  • A/B Experiments (Scale+)
  • Enveloppe de réponse
  • Streaming des réponses
  • Tool calls et function calls
  • System prompts et routage

Fonctionnalités

  • Éditer les règles Guardian
  • Fixer un plafond Budget Control
  • Activer le cache sémantique
  • Activer le masquage PII
  • Lancer une expérience A/B

Intégrations

  • SDK OpenAI Python
  • SDK OpenAI Node.js
  • LangChain
  • Vercel AI SDK
  • Workflows n8n
  • curl et HTTP brut

Migrer

  • Depuis OpenRouter
  • Depuis LiteLLM
  • Depuis Vercel AI Gateway
  • Depuis Portkey
  • Depuis les APIs providers (OpenAI / Anthropic)

Référence API

  • POST /v1/chat/completions
  • GET /v1/me
  • GET /v1/models
  • Codes d'erreur

Dépannage

  • 402 — Quota ou budget dépassé
  • 401 — Non authentifié
  • 429 — Rate limité
  • 502 — Upstream indisponible
  • FAQ
  • Glossaire
  • Changelog

Page introuvable

Cette page de documentation n'existe pas ou a été déplacée.

Retour à l'index de la documentation