Häufige Probleme mit dem Ollama-Modellknoten#
Hier sind einige häufige Fehler und Probleme mit dem Ollama-Modellknoten und Schritte zur Behebung oder Fehlerbehebung.
Verarbeitungsparameter#
Der Ollama-Modellknoten ist ein Unterknoten. Unterknoten verhalten sich anders als andere Knoten, wenn mehrere Elemente mithilfe von Ausdrücken verarbeitet werden.
Die meisten Knoten, einschließlich der Stammknoten, nehmen eine beliebige Anzahl von Elementen als Eingabe entgegen, verarbeiten diese Elemente und geben die Ergebnisse aus. Sie können Ausdrücke verwenden, um auf Eingabeelemente zu verweisen, und der Knoten löst den Ausdruck für jedes Element nacheinander auf. Bei einer Eingabe von fünf Namenswerten wird beispielsweise der Ausdruck {{ $json.name }}
nacheinander in jeden Namen aufgelöst.
In Unterknoten wird der Ausdruck immer zum ersten Element aufgelöst. Bei einer Eingabe von fünf Namenswerten wird beispielsweise der Ausdruck {{ $json.name }}
immer zum ersten Namen aufgelöst.
Keine Verbindung zu einer Remote-Ollama-Instanz möglich#
Der Ollama-Modellknoten ist nur für die Verbindung mit einer lokal gehosteten Ollama-Instanz ausgelegt. Er enthält nicht die Authentifizierungsfunktionen, die Sie für die Verbindung mit einer remote gehosteten Ollama-Instanz benötigen.
Um das Ollama-Modell zu verwenden, befolgen Sie die Anweisungen für Ollama-Anmeldedaten, um Ollama lokal einzurichten und die Instanz-URL in Localmind Automate zu konfigurieren.
Fehler: connect ECONNREFUSED ::1:11434#
Dieser Fehler tritt auf, wenn auf Ihrem Computer IPv6 aktiviert ist, Ollama aber auf eine IPv4-Adresse lauscht.
Um dies zu beheben, ändern Sie die Basis-URL in Ihren Ollama-Anmeldeinformationen, um eine Verbindung zu 127.0.0.1
, der IPv4-spezifischen lokalen Adresse, herzustellen, anstatt zum localhost
-Alias, der entweder in IPv4 oder IPv6 aufgelöst werden kann: http://127.0.0.1:11434
.