Zum Inhalt

Ollama Chat Model Node - Häufige Probleme#

Hier sind einige häufige Fehler und Probleme mit dem Ollama Chat Model Node und Schritte zur Behebung oder Fehlerbehebung.

Verarbeitung von Parametern#

Der Ollama Chat Model Node ist ein Sub-Node. Sub-Nodes verhalten sich anders als andere Nodes, wenn mehrere Elemente mithilfe von Ausdrücken verarbeitet werden.

Die meisten Nodes, einschließlich Root-Nodes, nehmen eine beliebige Anzahl von Elementen als Eingabe entgegen, verarbeiten diese Elemente und geben die Ergebnisse aus. Sie können Ausdrücke verwenden, um auf Eingabeelemente zu verweisen, und der Node löst den Ausdruck nacheinander für jedes Element auf. Wenn beispielsweise fünf Namenswerte eingegeben werden, wird der Ausdruck {{ $json.name }} nacheinander in jeden Namen aufgelöst.

In Sub-Nodes wird der Ausdruck immer in das erste Element aufgelöst. Wenn beispielsweise fünf Namenswerte eingegeben werden, wird der Ausdruck {{ $json.name }} immer in den ersten Namen aufgelöst.

Keine Verbindung zu einer Remote-Ollama-Instanz möglich#

Der Ollama Chat Model Node ist nur für die Verbindung zu einer lokal gehosteten Ollama-Instanz ausgelegt. Er enthält nicht die Authentifizierungsfunktionen, die Sie für die Verbindung zu einer remote gehosteten Ollama-Instanz benötigen.

Um den Ollama Chat Model zu verwenden, befolgen Sie die Ollama-Anmeldeinformationsanweisungen, um Ollama lokal einzurichten und die Instanz-URL in Localmind Automate zu konfigurieren.

Fehler: connect ECONNREFUSED ::1:11434#

Dieser Fehler tritt auf, wenn auf Ihrem Computer IPv6 aktiviert ist, Ollama jedoch auf eine IPv4-Adresse lauscht.

Um dies zu beheben, ändern Sie die Basis-URL in Ihren Ollama-Anmeldeinformationen, um eine Verbindung zu 127.0.0.1, der IPv4-spezifischen lokalen Adresse, anstelle des localhost-Alias herzustellen, der entweder in IPv4 oder IPv6 aufgelöst werden kann: http://127.0.0.1:11434.