VanteroVantero API
App

Integrationen

Integrieren Sie Vantero mit beliebten Tools und Frameworks.

n8n

Verwenden Sie Vantero in Ihren n8n-Workflows.

Wenn API-Keys auf Modelle eingeschränkt sind, senden Sie eine explizite Modell-ID (z. B. "chat-model-gpt-4.1") statt "auto".

Legacy-n8n-OpenAI-Nodes mit functions/function_call werden ebenfalls unterstützt.

Einrichtung

1. Fügen Sie einen "HTTP Request" Node hinzu

2. Konfigurieren Sie die Credentials:

{
  "type": "httpHeaderAuth",
  "data": {
    "name": "Authorization",
    "value": "Bearer sk_vantero_..."
  }
}

3. Konfigurieren Sie den Request

{
  "method": "POST",
  "url": "https://api.vantero.chat/v1/chat/completions",
  "headers": {
    "Content-Type": "application/json"
  },
  "body": {
    "model": "chat-model-gpt-4.1",
    "messages": [
      {"role": "user", "content": "{{ $json.prompt }}"}
    ],
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "telegram_senden",
          "parameters": {
            "type": "object",
            "properties": {
              "message": { "type": "string" }
            },
            "required": ["message"]
          }
        }
      }
    ],
    "tool_choice": "auto"
  }
}
LangChain

Verwenden Sie Vantero mit LangChain für fortgeschrittene Workflows.

Installation

pip install langchain-openai

Verwendung

1from langchain_openai import ChatOpenAI
2
3llm = ChatOpenAI(
4 model="mistral-small",
5 openai_api_key="sk_vantero_...",
6 openai_api_base="https://api.vantero.chat/v1"
7)
8
9response = llm.invoke("Erkläre mir Quantencomputing.")
10print(response.content)
11
12# Mit Streaming
13for chunk in llm.stream("Erkläre mir Quantencomputing."):
14 print(chunk.content, end="")