Erstellen eines KI-Chat-Agenten mit Localmind Automate#
Willkommen zum Einführungstutorial für die Erstellung von KI-Workflows mit Localmind Automate. Egal, ob Sie Localmind Automate bereits verwendet haben oder dies Ihr erstes Mal ist, wir zeigen Ihnen, wie die Bausteine von KI-Workflows zusammenpassen und einen funktionierenden KI-gestützten Chat-Agenten erstellen, den Sie einfach für Ihre eigenen Zwecke anpassen können.
Was Sie benötigen#
- Anmeldeinformationen für ein Chat-Modell: Dieses Tutorial verwendet OpenAI, aber Sie können problemlos DeepSeek, Google Gemini, Groq, Azure und andere verwenden (siehe die Sub-Nodes-Dokumentation für weitere Informationen).
Was Sie lernen werden#
- KI-Konzepte in Localmind Automate
- Verwendung des KI-Agenten-Nodes
- Arbeiten mit Chat-Eingaben
- Verbindung mit KI-Modellen
- Anpassen von Eingaben
- Beobachten der Konversation
- Hinzufügen von Persistenz
KI-Konzepte in Localmind Automate#
Wenn Sie bereits mit KI vertraut sind, können Sie diesen Abschnitt überspringen. Dies ist eine grundlegende Einführung in KI-Konzepte und wie sie in Localmind Automate-Workflows verwendet werden können.
Ein KI-Agent baut auf Large Language Models (LLMs) auf, die Text basierend auf Eingaben generieren, indem sie das nächste Wort vorhersagen. Während LLMs nur Eingaben verarbeiten, um Ausgaben zu erzeugen, fügen KI-Agenten zielorientierte Funktionen hinzu. Sie können Tools verwenden, ihre Ausgaben verarbeiten und Entscheidungen treffen, um Aufgaben zu erledigen und Probleme zu lösen.
In Localmind Automate wird der KI-Agent als ein Node mit einigen zusätzlichen Verbindungen dargestellt.
Merkmal | LLM | KI-Agent |
---|---|---|
Kernkompetenz | Textgenerierung | Zielorientierte Aufgabenerledigung |
Entscheidungsfindung | Keine | Ja |
Verwendet Tools/APIs | Nein | Ja |
Workflow-Komplexität | Einzelner Schritt | Mehrschrittig |
Umfang | Generiert Sprache | Führt komplexe, reale Aufgaben aus |
Beispiel | LLM generiert einen Absatz | Ein Agent plant einen Termin |
Durch die Einbindung des KI-Agenten als Node kann Localmind Automate KI-gesteuerte Schritte mit traditioneller Programmierung für effiziente, reale Workflows kombinieren. Beispielsweise erfordern einfachere Aufgaben wie das Validieren einer E-Mail-Adresse keine KI, während komplexe Aufgaben wie das Verarbeiten des Inhalts einer E-Mail oder der Umgang mit multimodalen Eingaben (z. B. Bilder, Audio) hervorragende Einsatzmöglichkeiten für einen KI-Agenten darstellen.
1. Erstellen eines neuen Workflows#
2. Hinzufügen eines Trigger-Nodes#
Jeder Workflow benötigt einen Startpunkt. In Localmind Automate werden diese als "Trigger-Nodes" bezeichnet. Für diesen Workflow möchten wir mit einem Chat-Node beginnen.
-
Wählen Sie Ersten Schritt hinzufügen oder drücken Sie Tab, um das Node-Menü zu öffnen.
-
Suchen Sie nach Chat-Trigger. Localmind Automate zeigt eine Liste von Nodes an, die der Suche entsprechen.
-
Wählen Sie Chat-Trigger, um den Node zur Canvas hinzuzufügen. Localmind Automate öffnet den Node.
-
Schließen Sie die Node-Detailansicht (wählen Sie Zurück zur Canvas), um zur Canvas zurückzukehren.
Mehr über den Chat-Trigger-Node...
Der Trigger-Node generiert eine Ausgabe, wenn ein Ereignis ihn auslöst. In diesem Fall möchten wir Text eingeben können, um den Workflow auszuführen. In der Produktion kann dieser Trigger mit einer öffentlichen Chat-Oberfläche verbunden werden, die von Localmind Automate bereitgestellt oder in eine andere Website eingebettet wird. Um diesen einfachen Workflow zu starten, verwenden wir einfach die integrierte lokale Chat-Oberfläche zur Kommunikation, sodass keine weitere Einrichtung erforderlich ist.
3. Hinzufügen eines KI-Agenten-Nodes#
Der KI-Agenten-Node ist der Kern, um Ihren Workflows KI hinzuzufügen.
-
Wählen Sie den Node hinzufügen Connector am Trigger-Node, um die Node-Suche aufzurufen.
-
Beginnen Sie mit der Eingabe von "KI" und wählen Sie den KI-Agenten-Node aus, um ihn hinzuzufügen.
-
Die Bearbeitungsansicht des KI-Agenten wird nun angezeigt.
-
Es gibt einige Felder, die geändert werden können. Für dieses Tutorial sollte der Standardwert Agent auf dem Standardwert (Tools Agent) belassen werden. Da wir den Chat-Trigger-Node verwenden, müssen die anderen Standardeinstellungen für die Quelle und die Spezifikation des Prompts nicht geändert werden.
4. Konfigurieren des Nodes#
KI-Agenten benötigen ein Chat-Modell, das angehängt werden muss, um die eingehenden Prompts zu verarbeiten.
-
Fügen Sie ein Chat-Modell hinzu, indem Sie auf die Plus-Schaltfläche unter der Chat-Modell-Verbindung auf dem KI-Agenten-Node klicken (es ist die erste Verbindung entlang der Unterseite des Nodes).
-
Der Suchdialog wird angezeigt, gefiltert nach "Sprachmodelle". Dies sind die Modelle mit integrierter Unterstützung in Localmind Automate. Für dieses Tutorial verwenden wir OpenAI Chat Model.
-
Durch Auswahl des OpenAI Chat model aus der Liste wird es an den KI-Agenten-Node angehängt und der Node-Editor geöffnet. Einer der Parameter, die geändert werden können, ist das "Modell". Beachten Sie, dass für die grundlegenden OpenAI-Konten nur das Modell "gpt-4o-mini" zulässig ist.
Welches Chat-Modell?
Wie bereits erwähnt, ist das LLM die Komponente, die den Text gemäß einem vorgegebenen Prompt generiert. LLMs müssen erstellt und trainiert werden, normalerweise ein intensiver Prozess. Verschiedene LLMS können unterschiedliche Fähigkeiten oder Spezialitäten haben, abhängig von den Daten, mit denen sie trainiert wurden.
5. Hinzufügen von Anmeldeinformationen (falls erforderlich)#
Damit Localmind Automate mit dem Chat-Modell kommunizieren kann, benötigt es einige Anmeldeinformationen (Anmeldedaten, die ihm Zugriff auf ein Konto bei einem anderen Online-Dienst ermöglichen). Wenn Sie bereits Anmeldeinformationen für OpenAI eingerichtet haben, sollten diese standardmäßig in der Anmeldeinformationsauswahl angezeigt werden. Andernfalls können Sie die Anmeldeinformationsauswahl verwenden, um Ihnen beim Hinzufügen neuer Anmeldeinformationen zu helfen.
-
Um neue Anmeldeinformationen hinzuzufügen, klicken Sie auf den Text "Anmeldeinformationen auswählen". Eine Option zum Hinzufügen neuer Anmeldeinformationen wird angezeigt
-
Diese Anmeldeinformationen benötigen lediglich einen API-Schlüssel. Überprüfen Sie beim Hinzufügen von Anmeldeinformationen jeglicher Art den Text auf der rechten Seite. In diesem Fall enthält er einen praktischen Link, der Sie direkt zu Ihrem OpenAI-Konto führt, um den API-Schlüssel abzurufen.
-
Der API-Schlüssel ist nur eine lange Zeichenfolge. Das ist alles, was Sie für diese spezielle Anmeldeinformation benötigen. Kopieren Sie sie von der OpenAI-Website und fügen Sie sie in den Abschnitt API-Schlüssel ein.
Sicher aufbewahren Ihrer Anmeldeinformationen
Anmeldeinformationen sind private Informationen, die von Apps und Diensten ausgestellt werden, um Sie als Benutzer zu authentifizieren und es Ihnen zu ermöglichen, Verbindungen herzustellen und Informationen zwischen der App oder dem Dienst und dem Localmind Automate-Node auszutauschen. Die Art der erforderlichen Informationen variiert je nach der betreffenden App/dem betreffenden Dienst. Sie sollten vorsichtig sein, Anmeldeinformationen außerhalb von Localmind Automate weiterzugeben oder preiszugeben.
6. Testen des Nodes#
Nachdem der Node mit dem Chat-Trigger und einem Chat-Modell verbunden ist, können wir diesen Teil des Workflows testen.
-
Klicken Sie auf die Schaltfläche "Chat" unten auf der Canvas. Dadurch wird links ein lokales Chat-Fenster und rechts die KI-Agentenprotokolle geöffnet.
-
Geben Sie eine Nachricht ein und drücken Sie Enter. Sie sehen nun die Antwort des Chat-Modells unter Ihrer Nachricht.
-
Das Protokollfenster zeigt die Eingaben und Ausgaben des KI-Agenten an.
Zugriff auf die Protokolle...
Sie können auf die Protokolle für den KI-Node zugreifen, auch wenn Sie die Chat-Oberfläche nicht verwenden. Öffnen Sie den KI-Agenten-Node und klicken Sie im rechten Bereich auf die Registerkarte Protokolle.
7. Ändern des Prompts#
Die Protokolle im vorherigen Schritt zeigen einige zusätzliche Daten - den System-Prompt. Dies ist die Standardnachricht, mit der der KI-Agent das Chat-Modell vorbereitet. Aus dem Protokoll können Sie ersehen, dass dies auf "Sie sind ein hilfreicher Assistent" eingestellt ist. Wir können diesen Prompt jedoch ändern, um das Verhalten des Chat-Modells zu ändern.
-
Öffnen Sie den KI-Agenten-Node. Im unteren Bereich des Panels befindet sich ein Abschnitt mit der Bezeichnung "Optionen" und eine Auswahl mit der Bezeichnung "Option hinzufügen". Verwenden Sie dies, um "Systemnachricht" auszuwählen.
-
Die Systemnachricht wird nun angezeigt. Dies ist derselbe vorbereitende Prompt, den wir zuvor in den Protokollen bemerkt haben. Ändern Sie den Prompt in etwas anderes, um das Chat-Modell auf andere Weise vorzubereiten. Sie könnten beispielsweise "Sie sind ein brillanter Dichter, der immer in Reimpaaren antwortet" ausprobieren.
-
Schließen Sie den Node und kehren Sie zum Chat-Fenster zurück. Wiederholen Sie Ihre Nachricht und beachten Sie, wie sich die Ausgabe geändert hat.
8. Hinzufügen von Persistenz#
Das Chat-Modell liefert uns nun nützliche Ausgaben, aber es gibt etwas, das nicht stimmt, was deutlich wird, wenn Sie versuchen, ein Gespräch zu führen.
-
Verwenden Sie den Chat und teilen Sie dem Chat-Modell Ihren Namen mit, z. B. "Hallo, mein Name ist Nick".
-
Warten Sie auf die Antwort und geben Sie dann die Nachricht "Wie ist mein Name?" ein. Die KI wird Ihnen dies nicht sagen können, so entschuldigend sie auch erscheinen mag. Der Grund dafür ist, dass wir den Kontext nicht speichern. Der KI-Agent hat kein Gedächtnis.
-
Um sich an das zu erinnern, was im Gespräch passiert ist, muss der KI-Agent den Kontext beibehalten. Wir können dies tun, indem wir dem KI-Agenten-Node Speicher hinzufügen. Klicken Sie auf der Canvas auf am unteren Rand des KI-Agenten-Nodes mit der Bezeichnung "Speicher".
-
Wählen Sie im angezeigten Panel "Window Buffer Memory" aus. Dadurch wird der Speicher von der Instanz verwendet, die Localmind Automate ausführt, und ist normalerweise für einfache Verwendung ausreichend. Der Standardwert von 5 Interaktionen sollte hier ausreichen, aber merken Sie sich, wo sich diese Option befindet, wenn Sie sie später ändern möchten.
-
Wiederholen Sie die Übung, ein Gespräch zu führen, und sehen Sie, dass sich der KI-Agent nun an Ihren Namen erinnert.
9. Speichern des Workflows#
Bevor wir den Workflow-Editor verlassen, denken Sie daran, den Workflow zu speichern, da sonst alle Ihre Änderungen verloren gehen.
- Klicken Sie auf die Schaltfläche "Speichern" oben rechts im Editorfenster. Ihr Workflow wird nun gespeichert und Sie können später dorthin zurückkehren, um erneut zu chatten oder neue Funktionen hinzuzufügen.
Herzlichen Glückwunsch!#
Sie haben Ihre ersten Schritte beim Erstellen nützlicher und effektiver Workflows mit KI unternommen. In diesem Tutorial haben wir die grundlegenden Bausteine eines KI-Workflows untersucht, einen KI-Agenten und ein Chat-Modell hinzugefügt und den Prompt angepasst, um die Art von Ausgabe zu erhalten, die wir wollten. Wir haben auch Speicher hinzugefügt, damit der Chat den Kontext zwischen Nachrichten beibehalten kann.
Nächste Schritte#
Nachdem Sie nun gesehen haben, wie Sie einen einfachen KI-Workflow erstellen, gibt es viele Ressourcen, um auf diesem Wissen aufzubauen, und viele Beispiele, die Ihnen Ideen für die nächsten Schritte geben:
- Erfahren Sie mehr über KI-Konzepte und sehen Sie sich Beispiele unter Beispiele und Konzepte an.
- Erfahren Sie, wie Sie den KI-Agenten mit Tools verbessern.