Window Buffer Memory Node#
Verwenden Sie den Window Buffer Memory Node, um den Chatverlauf in Ihrem Workflow zu speichern.
Auf dieser Seite finden Sie eine Liste der Operationen, die der Window Buffer Memory Node unterstützt, sowie Links zu weiteren Ressourcen.
Verwenden Sie diesen Node nicht in einem aktiven Produktions-Workflow. Dies liegt daran, dass Localmind Automate nicht garantieren kann, dass jeder Aufruf von Window Buffer Memory an denselben Worker geht.
Parameter resolution in sub-nodes
Sub-nodes behave differently to other nodes when processing multiple items using an expression.
Most nodes, including root nodes, take any number of items as input, process these items, and output the results. You can use expressions to refer to input items, and the node resolves the expression for each item in turn. For example, given an input of five name
values, the expression {{ $json.name }}
resolves to each name in turn.
In sub-nodes, the expression always resolves to the first item. For example, given an input of five name
values, the expression {{ $json.name }}
always resolves to the first name.
Node-Parameter#
Konfigurieren Sie diese Parameter, um den Node zu konfigurieren:
- Session Key: Geben Sie den Schlüssel ein, der zum Speichern des Speichers in den Workflow-Daten verwendet werden soll.
- Context Window Length: Geben Sie die Anzahl der vorherigen Interaktionen ein, die für den Kontext berücksichtigt werden sollen.
Zugehörige Ressourcen#
Weitere Informationen zum Dienst finden Sie in der LangChain-Dokumentation zu Buffer Window Memory.
View Localmind Automate's Advanced AI documentation.
Häufige Probleme#
Häufige Fragen oder Probleme und Lösungsvorschläge finden Sie unter Häufige Probleme.
AI glossary#
- completion: Completions are the responses generated by a model like GPT.
- hallucinations: Hallucination in AI is when an LLM (large language model) mistakenly perceives patterns or objects that don't exist.
- vector database: A vector database stores mathematical representations of information. Use with embeddings and retrievers to create a database that your AI can access when answering questions.
- vector store: A vector store, or vector database, stores mathematical representations of information. Use with embeddings and retrievers to create a database that your AI can access when answering questions.