GenAI 栈

GenAI 栈是 Docker、Neo4j、LangChain 和 Ollama 在 DockerCon 2023 上推出的合作成果。
安装
在 MacOS 上,您需要先安装并启动 Ollama,然后才能使用 GenAI 栈。
git clone https://github.com/docker/genai-stack
cd genai-stack
# optionally copy env.example to .env and add your OpenAI/Bedrock/Neo4j credentials for remote models
docker compose up
功能包括
-
Docker 设置,包括本地或远程 LLM、Neo4j 和 LangChain 演示应用程序
-
根据需要提取 Ollama 模型和句子转换器
-
导入特定标签的 Stackoverflow 问题和答案,例如
langchain
-
为问题和答案创建知识图谱和向量嵌入

-
带有向量搜索和 GraphRAG(向量 + 图谱)答案生成的 Streamlit 聊天应用程序
-
创建“支持票证”以处理未解答的问题,并考虑 StackOverflow 中的优质问题和实际问题
-
PDF 聊天,包括加载 PDF、分块、向量索引和搜索以生成答案
-
带有向量搜索和 GraphRAG(向量 + 图谱)答案生成的 Python 后端和 Svelte 前端聊天应用程序

文档
GenAI 栈的详细演练可在 https://neo4j.ac.cn/developer-blog/genai-app-how-to-build/ 找到。