功能文档
来源
本地文件上传
您可以将文件拖放到左侧第一个输入区域。应用程序将使用 LangChain 加载器(PDFLoader 和 Unstructured Loader)将上传的源存储为图中的文档节点。
文件类型 | 支持的扩展名 |
---|---|
Microsoft Office |
.docx, .pptx, .xls |
图像 |
.jpeg, .jpg, .png, .svg |
文本 |
.html, .txt, .md |
网络链接
第二个输入区域处理网络链接。
-
YouTube 字幕
-
维基百科页面
-
网页
应用程序将使用 YouTube 解析器解析并存储上传的 YouTube 视频(字幕)作为图中的文档节点。
对于维基百科链接,我们使用维基百科加载器。例如,您可以提供 https://en.wikipedia.org/wiki/Neo4j
,它将加载 Neo4j 维基百科页面。
对于网页,我们使用 Unstructured Loader。例如,您可以提供来自 https://theguardian.com/
的文章,它将加载文章内容。
LLM 模型
应用程序使用机器学习模型将 PDF、网页和 YouTube 视频字幕转换为实体及其关系的知识图谱。可以设置环境变量来配置/启用/禁用特定模型。
配置了以下模型(但只有前三个在公开托管版本中可用)
-
OpenAI GPT 3.5 和 4o
-
VertexAI (Gemini 1.0),
-
Diffbot
-
Bedrock,
-
Anthropic
-
与 OpenAI API 兼容的模型,如 Ollama、Groq、Fireworks
所选的 LLM 模型将用于处理新上传的文件以及为聊天机器人提供支持。请注意,这些模型具有不同的功能,因此它们的效果不尽相同,尤其是在提取方面。
图增强
可视化
聊天机器人
工作原理
当用户提出问题时,我们使用配置的 RAG 模式来使用提取文档的图中的数据回答它。这意味着问题可以转换为嵌入或图查询,或者更高级的 RAG 方法。
我们还会总结聊天历史记录并将其用作丰富上下文的元素。
功能
-
选择 RAG 模式您可以选择仅向量或 GraphRAG(向量+图)模式
-
与选定的文档聊天:将仅使用选定的文档进行 RAG,使用预过滤来实现这一点
-
详细信息:将打开一个检索信息弹出窗口,显示有关 RAG 代理如何收集和使用源(文档)、片段和实体的详细信息。还提供有关所用模型和令牌消耗的信息。
-
清除聊天:将删除当前会话的聊天历史记录。
-
扩展视图:将在全屏模式下打开聊天机器人界面。
-
复制:将响应内容复制到剪贴板。
-
文字转语音:将大声朗读响应内容。
答案生成
各种输入和确定的源(问题、向量结果、实体(名称+描述)、关系对、聊天历史记录)都作为自定义提示中的上下文信息发送到所选的 LLM 模型,要求根据提供的元素和上下文提供和格式化对所提问题的响应。
当然,提示中还有更多“魔法”,例如格式化、要求引用来源、如果答案未知则不要推测等。完整的提示和说明可以在GitHub 存储库中找到。