GenAI 栈

import embed data stack overflow

GenAI 栈是 Docker、Neo4j、LangChain 和 Ollama 在 DockerCon 2023 上推出的合作成果。

安装

在 MacOS 上,您需要先安装并启动 Ollama,然后才能使用 GenAI 栈。

git clone https://github.com/docker/genai-stack
cd genai-stack

# optionally copy env.example to .env and add your OpenAI/Bedrock/Neo4j credentials for remote models
docker compose up

功能包括

  • Docker 设置,包括本地或远程 LLM、Neo4j 和 LangChain 演示应用程序

  • 根据需要提取 Ollama 模型和句子转换器

  • 导入特定标签的 Stackoverflow 问题和答案,例如 langchain

  • 为问题和答案创建知识图谱和向量嵌入

query imported data
  • 带有向量搜索和 GraphRAG(向量 + 图谱)答案生成的 Streamlit 聊天应用程序

  • 创建“支持票证”以处理未解答的问题,并考虑 StackOverflow 中的优质问题和实际问题

  • PDF 聊天,包括加载 PDF、分块、向量索引和搜索以生成答案

  • 带有向量搜索和 GraphRAG(向量 + 图谱)答案生成的 Python 后端和 Svelte 前端聊天应用程序

input answer sources

文档

GenAI 栈的详细演练可在 https://neo4j.ac.cn/developer-blog/genai-app-how-to-build/ 找到。

视频和教程