OpenAI Textoperationen#
Verwenden Sie diese Operation, um einem Modell eine Nachricht zu senden oder Text in OpenAI auf Verstöße zu klassifizieren. Weitere Informationen zum OpenAI-Knoten selbst finden Sie unter OpenAI.
Nachricht an ein Modell senden#
Verwenden Sie diese Operation, um eine Nachricht oder einen Prompt an ein OpenAI-Modell zu senden und eine Antwort zu erhalten.
Geben Sie diese Parameter ein:
- Anmeldeinformationen für die Verbindung: Erstellen oder wählen Sie vorhandene OpenAI-Anmeldeinformationen aus.
- Ressource: Wählen Sie Text aus.
- Operation: Wählen Sie Nachricht an ein Modell senden aus.
- Modell: Wählen Sie das Modell aus, das Sie verwenden möchten. Wenn Sie sich nicht sicher sind, welches Modell Sie verwenden sollen, versuchen Sie
gpt-4o
, wenn Sie hohe Intelligenz benötigen, odergpt-4o-mini
, wenn Sie die höchste Geschwindigkeit und die niedrigsten Kosten benötigen. Weitere Informationen finden Sie unter Modellübersicht | OpenAI Platform. - Nachrichten: Geben Sie einen Text-Prompt ein und weisen Sie eine Rolle zu, die das Modell zum Generieren von Antworten verwendet. Weitere Informationen zum Schreiben eines besseren Prompts mithilfe dieser Rollen finden Sie unter Prompt Engineering | OpenAI. Wählen Sie eine dieser Rollen aus:
- Benutzer: Sendet eine Nachricht als Benutzer und erhält eine Antwort vom Modell.
- Assistent: Weist das Modell an, einen bestimmten Ton oder eine bestimmte Persönlichkeit anzunehmen.
- System: Standardmäßig ist die Systemnachricht
"Sie sind ein hilfreicher Assistent"
. Sie können Anweisungen in der Benutzernachricht definieren, aber die in der Systemnachricht festgelegten Anweisungen sind effektiver. Sie können nur eine Systemnachricht pro Konversation festlegen. Verwenden Sie dies, um das Verhalten oder den Kontext des Modells für die nächste Benutzernachricht festzulegen.
- Ausgabe vereinfachen: Aktivieren Sie diese Option, um eine vereinfachte Version der Antwort anstelle der Rohdaten zurückzugeben.
- Inhalt als JSON ausgeben: Aktivieren Sie diese Option, um zu versuchen, die Antwort im JSON-Format zurückzugeben. Kompatibel mit
GPT-4 Turbo
und allenGPT-3.5 Turbo
-Modellen, die neuer alsgpt-3.5-turbo-1106
sind.
Optionen#
- Frequenzstrafe: Wenden Sie eine Strafe an, um die Tendenz des Modells zu verringern, ähnliche Zeilen zu wiederholen. Der Bereich liegt zwischen
0.0
und2.0
. - Maximale Anzahl von Token: Legen Sie die maximale Anzahl von Token für die Antwort fest. Ein Token entspricht ungefähr vier Zeichen für Standard-Englisch-Text. Verwenden Sie dies, um die Länge der Ausgabe zu begrenzen.
- Anzahl der Vervollständigungen: Standardmäßig ist 1. Legen Sie die Anzahl der Vervollständigungen fest, die Sie für jeden Prompt generieren möchten. Verwenden Sie dies mit Bedacht, da das Festlegen einer hohen Zahl Ihre Token schnell verbraucht.
- Präsenzstrafe: Wenden Sie eine Strafe an, um das Modell zu beeinflussen, neue Themen zu diskutieren. Der Bereich liegt zwischen
0.0
und2.0
. - Ausgabezufälligkeit (Temperatur): Passen Sie die Zufälligkeit der Antwort an. Der Bereich liegt zwischen
0.0
(deterministisch) und1.0
(maximale Zufälligkeit). Wir empfehlen, entweder dies oder Ausgabezufälligkeit (Top P) zu ändern, aber nicht beides. Beginnen Sie mit einer mittleren Temperatur (um0.7
) und passen Sie sie basierend auf den von Ihnen beobachteten Ausgaben an. Wenn die Antworten zu repetitiv oder starr sind, erhöhen Sie die Temperatur. Wenn sie zu chaotisch oder vom Thema abweichen, verringern Sie sie. Standardmäßig ist1.0
. - Ausgabezufälligkeit (Top P): Passen Sie die Top-P-Einstellung an, um die Vielfalt der Antworten des Assistenten zu steuern. Beispielsweise bedeutet
0.5
, dass die Hälfte aller wahrscheinlichkeitsgewichteten Optionen berücksichtigt wird. Wir empfehlen, entweder dies oder Ausgabezufälligkeit (Temperatur) zu ändern, aber nicht beides. Standardmäßig ist1.0
.
Weitere Informationen finden Sie in der Dokumentation Nachricht an ein Modell senden | OpenAI.
Text auf Verstöße klassifizieren#
Verwenden Sie diese Operation, um Inhalte zu identifizieren und zu kennzeichnen, die schädlich sein könnten. Das OpenAI-Modell analysiert den Text und gibt eine Antwort zurück, die Folgendes enthält:
flagged
: Ein boolesches Feld, das angibt, ob der Inhalt potenziell schädlich ist.categories
: Eine Liste kategoriespezifischer Verstosskennzeichen.category_scores
: Bewertungen für jede Kategorie.
Geben Sie diese Parameter ein:
- Anmeldeinformationen für die Verbindung: Erstellen oder wählen Sie vorhandene OpenAI-Anmeldeinformationen aus.
- Ressource: Wählen Sie Text aus.
- Operation: Wählen Sie Text auf Verstöße klassifizieren aus.
- Texteingabe: Geben Sie Text ein, um zu klassifizieren, ob er gegen die Moderationsrichtlinie verstößt.
- Ausgabe vereinfachen: Aktivieren Sie diese Option, um eine vereinfachte Version der Antwort anstelle der Rohdaten zurückzugeben.
Optionen#
- Stabiles Modell verwenden: Aktivieren Sie diese Option, um die stabile Version des Modells anstelle der neuesten Version zu verwenden. Die Genauigkeit kann geringfügig geringer sein.
Weitere Informationen finden Sie in der Dokumentation Moderationen | OpenAI.
Häufige Probleme#
Informationen zu häufigen Fehlern oder Problemen und vorgeschlagenen Lösungsschritten finden Sie unter Häufige Probleme.