Integrationen
Integrieren Sie Vantero mit beliebten Tools und Frameworks.
n8n
Verwenden Sie Vantero in Ihren n8n-Workflows.
Wenn API-Keys auf Modelle eingeschränkt sind, senden Sie eine explizite Modell-ID (z. B. "chat-model-gpt-4.1") statt "auto".
Legacy-n8n-OpenAI-Nodes mit functions/function_call werden ebenfalls unterstützt.
Einrichtung
1. Fügen Sie einen "HTTP Request" Node hinzu
2. Konfigurieren Sie die Credentials:
{
"type": "httpHeaderAuth",
"data": {
"name": "Authorization",
"value": "Bearer sk_vantero_..."
}
}3. Konfigurieren Sie den Request
{
"method": "POST",
"url": "https://api.vantero.chat/v1/chat/completions",
"headers": {
"Content-Type": "application/json"
},
"body": {
"model": "chat-model-gpt-4.1",
"messages": [
{"role": "user", "content": "{{ $json.prompt }}"}
],
"tools": [
{
"type": "function",
"function": {
"name": "telegram_senden",
"parameters": {
"type": "object",
"properties": {
"message": { "type": "string" }
},
"required": ["message"]
}
}
}
],
"tool_choice": "auto"
}
}LangChain
Verwenden Sie Vantero mit LangChain für fortgeschrittene Workflows.
Installation
pip install langchain-openaiVerwendung
1from langchain_openai import ChatOpenAI23llm = ChatOpenAI(4 model="mistral-small",5 openai_api_key="sk_vantero_...",6 openai_api_base="https://api.vantero.chat/v1"7)89response = llm.invoke("Erkläre mir Quantencomputing.")10print(response.content)1112# Mit Streaming13for chunk in llm.stream("Erkläre mir Quantencomputing."):14 print(chunk.content, end="")