GenAI 技术栈

GenAI 技术栈是 Docker、Neo4j、LangChain 和 Ollama 在 DockerCon 2023 上推出的合作项目。
安装
在 MacOS 上,您必须先安装并启动 Ollama,然后才能使用 GenAI 技术栈。
git clone https://github.com/docker/genai-stack
cd genai-stack
# optionally copy env.example to .env and add your OpenAI/Bedrock/Neo4j credentials for remote models
docker compose up
功能包括
-
使用本地或远程 LLM、Neo4j 和 LangChain 演示应用程序的 Docker 设置
-
根据需要拉取 Ollama 模型和句子转换器
-
导入 Stackoverflow 针对特定标签的问题和答案,例如
langchain
-
为问题和答案创建知识图谱和向量嵌入

-
带有向量搜索和 GraphRAG(向量 + 图)答案生成的 Streamlit 聊天应用程序
-
创建“支持工单”,考虑 StackOverflow 中的优秀问题和实际问题来回答未解决的问题
-
PDF 聊天,加载 PDF、分块、向量索引和搜索以生成答案
-
带有向量搜索和 GraphRAG(向量 + 图)答案生成的 Python 后端和 Svelte 前端聊天应用程序

文档
GenAI 技术栈的详细演练可在 https://neo4j.ac.cn/developer-blog/genai-app-how-to-build/ 找到。