Über LiteLLM
Rufen Sie alle LLM APIs im OpenAI-Format auf [Bedrock, Huggingface, VertexAI, TogetherAI, Azure, OpenAI, Groq etc.]
Funktionen
- Übersetzt Eingaben in die 
completion,embeddingundimage_generationEndpunkte des Anbieters - Konsistente Ausgabe, Textantworten sind immer unter 
['choices'][0]['message']['content']verfügbar - Wiederholungs-/Fallback-Logik über mehrere Deployments (z.B. Azure/OpenAI) - Router
 - Festlegen von Budgets & Ratelimits pro Projekt, API-Schlüssel, Modell LiteLLM Proxy Server (LLM Gateway)