Zum Inhalt

OpenAI Chat Model Node#

Verwenden Sie den OpenAI Chat Model Node, um die Chatmodelle von OpenAI mit Konversationsagenten zu nutzen.

Auf dieser Seite finden Sie die Node-Parameter für den OpenAI Chat Model Node und Links zu weiteren Ressourcen.

Anmeldedaten

Authentifizierungsinformationen für diesen Node finden Sie hier.

Parameter resolution in sub-nodes

Sub-nodes behave differently to other nodes when processing multiple items using an expression.

Most nodes, including root nodes, take any number of items as input, process these items, and output the results. You can use expressions to refer to input items, and the node resolves the expression for each item in turn. For example, given an input of five name values, the expression {{ $json.name }} resolves to each name in turn.

In sub-nodes, the expression always resolves to the first item. For example, given an input of five name values, the expression {{ $json.name }} always resolves to the first name.

Node-Parameter#

Modell#

Wählen Sie das Modell aus, das zum Generieren der Vervollständigung verwendet werden soll.

Localmind Automate lädt Modelle dynamisch von OpenAI und Sie sehen nur die Modelle, die für Ihr Konto verfügbar sind.

Node-Optionen#

Verwenden Sie diese Optionen, um das Verhalten des Nodes weiter zu verfeinern.

Basis-URL#

Geben Sie hier eine URL ein, um die Standard-URL für die API zu überschreiben.

Frequenzstrafe#

Verwenden Sie diese Option, um die Wahrscheinlichkeit zu steuern, dass das Modell sich wiederholt. Höhere Werte verringern die Wahrscheinlichkeit, dass das Modell sich wiederholt.

Maximale Anzahl von Token#

Geben Sie die maximale Anzahl der verwendeten Token ein, die die Länge der Vervollständigung festlegt.

Antwortformat#

Wählen Sie Text oder JSON. JSON stellt sicher, dass das Modell gültiges JSON zurückgibt.

Präsenzstrafe#

Verwenden Sie diese Option, um die Wahrscheinlichkeit zu steuern, dass das Modell über neue Themen spricht. Höhere Werte erhöhen die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.

Sampling-Temperatur#

Verwenden Sie diese Option, um die Zufälligkeit des Sampling-Prozesses zu steuern. Eine höhere Temperatur erzeugt eine vielfältigere Stichprobenerhebung, erhöht aber das Risiko von Halluzinationen.

Timeout#

Geben Sie die maximale Anfragezeit in Millisekunden ein.

Max. Wiederholungsversuche#

Geben Sie die maximale Anzahl von Wiederholungsversuchen für eine Anfrage ein.

Top P#

Verwenden Sie diese Option, um die Wahrscheinlichkeit festzulegen, die die Vervollständigung verwenden soll. Verwenden Sie einen niedrigeren Wert, um weniger wahrscheinliche Optionen zu ignorieren.

Verwandte Ressourcen#

Weitere Informationen zum Dienst finden Sie in der OpenAI-Dokumentation von LangChain.

View Localmind Automate's Advanced AI documentation.

Häufige Probleme#

Häufige Fragen oder Probleme und Lösungsvorschläge finden Sie unter Häufige Probleme.

AI glossary#

  • completion: Completions are the responses generated by a model like GPT.
  • hallucinations: Hallucination in AI is when an LLM (large language model) mistakenly perceives patterns or objects that don't exist.
  • vector database: A vector database stores mathematical representations of information. Use with embeddings and retrievers to create a database that your AI can access when answering questions.
  • vector store: A vector store, or vector database, stores mathematical representations of information. Use with embeddings and retrievers to create a database that your AI can access when answering questions.