LangChain-Konzepte in Localmind Automate#
Diese Seite erklärt, wie LangChain-Konzepte und -Funktionen auf Localmind Automate-Nodes abgebildet werden.
Diese Seite enthält Listen der auf LangChain fokussierten Nodes in Localmind Automate. Sie können jeden Localmind Automate-Node in einem Workflow verwenden, in dem Sie mit LangChain interagieren, um LangChain mit anderen Diensten zu verbinden. Die LangChain-Funktionen verwenden die Cluster-Nodes von Localmind Automate.
Localmind Automate implementiert LangChain JS
Diese Funktion ist Localmind Automates Implementierung von LangChains JavaScript-Framework.
Trigger-Nodes#
Cluster-Nodes#
Cluster nodes are node groups that work together to provide functionality in a Localmind Automate workflow. Instead of using a single node, you use a root node and one or more sub-nodes that extend the functionality of the node.
Root-Nodes#
Jeder Cluster beginnt mit einem Root-Node.
Chains (Ketten)#
Eine Chain ist eine Reihe von LLMs und zugehörigen Tools, die miteinander verbunden sind, um Funktionen zu unterstützen, die nicht von einem einzelnen LLM allein bereitgestellt werden können.
Verfügbare Nodes:
Erfahren Sie mehr über Chaining in LangChain.
Agents (Agenten)#
Ein Agent hat Zugriff auf eine Reihe von Tools und bestimmt, welche er je nach Benutzereingabe verwenden soll. Agenten können mehrere Tools verwenden und die Ausgabe eines Tools als Eingabe für das nächste verwenden. Quelle
Verfügbare Nodes:
Erfahren Sie mehr über Agents in LangChain.
Vektorspeicher#
Vektorspeicher speichern eingebettete Daten und führen Vektorsuchen darauf durch.
- In Memory Vector Store
- PGVector Vector Store
- Pinecone Vector Store
- Qdrant Vector Store
- Supabase Vector Store
- Zep Vector Store
Erfahren Sie mehr über Vektorspeicher in LangChain.
Verschiedenes#
Dienstprogramm-Nodes.
LangChain Code: importiert LangChain. Das bedeutet, wenn Sie eine Funktion benötigen, für die Localmind Automate noch keinen Node erstellt hat, können Sie diese trotzdem verwenden.
Sub-Nodes#
Jeder Root-Node kann einen oder mehrere Sub-Nodes haben.
Dokumenten-Loader#
Dokumenten-Loader fügen Ihrer Chain Daten als Dokumente hinzu. Die Datenquelle kann eine Datei oder ein Webdienst sein.
Verfügbare Nodes:
Erfahren Sie mehr über Dokumenten-Loader in LangChain.
Sprachmodelle#
LLMs (Large Language Models) sind Programme, die Datensätze analysieren. Sie sind das Schlüsselelement für die Arbeit mit KI.
Verfügbare Nodes:
- Anthropic Chat Model
- AWS Bedrock Chat Model
- Cohere Model
- Hugging Face Inference Model
- Mistral Cloud Chat Model
- Ollama Chat Model
- Ollama Model
- OpenAI Chat Model
Erfahren Sie mehr über Sprachmodelle in LangChain.
Memory (Speicher)#
Der Speicher behält Informationen über vorherige Abfragen in einer Reihe von Abfragen bei. Wenn ein Benutzer beispielsweise mit einem Chatmodell interagiert, ist es nützlich, wenn sich Ihre Anwendung an die vollständige Konversation erinnern und diese abrufen kann, nicht nur an die letzte vom Benutzer eingegebene Abfrage.
Verfügbare Nodes:
Erfahren Sie mehr über Memory in LangChain.
Output-Parser#
Output-Parser nehmen den von einem LLM generierten Text und formatieren ihn so, dass er der von Ihnen benötigten Struktur entspricht.
Verfügbare Nodes:
Erfahren Sie mehr über Output-Parser in LangChain.
Retrievers (Abrufer)#
Text-Splitter#
Text-Splitter zerlegen Daten (Dokumente), wodurch es dem LLM erleichtert wird, die Informationen zu verarbeiten und genaue Ergebnisse zurückzugeben.
Verfügbare Nodes:
Die Text-Splitter-Nodes von Localmind Automate implementieren Teile der text_splitter API von LangChain.
Tools#
Dienstprogramm-Tools.
Embeddings#
Embeddings erfassen die "Verwandtschaft" von Text, Bildern, Videos oder anderen Arten von Informationen. (Quelle)
Verfügbare Nodes:
- Embeddings AWS Bedrock
- Embeddings Cohere
- Embeddings Google PaLM
- Embeddings Hugging Face Inference
- Embeddings Mistral Cloud
- Embeddings Ollama
- Embeddings OpenAI
Erfahren Sie mehr über Text-Embeddings in LangChain.