# DocumentQA **Repository Path**: WatermelonAnimal/document-qa ## Basic Information - **Project Name**: DocumentQA - **Description**: A Q&A - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2026-03-05 - **Last Updated**: 2026-05-16 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # Document-QA - 本地化文档问答系统 一款基于本地化部署的文档问答系统,核心解决长文本、多文档问答时的模型幻觉与上下文超限问题,整体架构清晰、可直接部署使用。 ## 项目简介 本项目采用 RAG(检索增强生成)技术,结合本地大模型与轻量级向量库,实现"上传文档 → 精准检索 → 智能问答"的完整流程。无需联网,可直接处理常见格式文档,生成精准、无幻觉的回答,代码分层规范,便于维护和二次扩展。 ### 核心功能 - 支持 PDF、TXT、DOCX 三种格式文档批量上传 - 自动解析文档内容,无需手动处理 - 精准检索与问题相关的文本片段,避免无关内容干扰 - 本地大模型调用,无需联网,保护数据隐私 - 流式输出,实时展示生成过程 - 支持 Markdown 格式渲染,回答排版更清晰 - 完善的异常处理,单个文件异常不影响整体流程 ## 核心技术栈 - **后端框架**:Django - **核心技术**:RAG(检索增强生成) - **向量库**:Chroma(本地轻量级向量库) - **大模型**:Ollama(本地部署,支持多模型切换) - **文档解析**:LangChain(适配 PDF / TXT / DOCX) - **前端**:Vue 3 + Vite + Axios ## 快速开始 ### 1. 环境准备 - Python 3.9+ - Node.js 20.19+ 或 22.12+ - [Ollama](https://ollama.com/) 已安装并拉取所需模型 ### 2. 后端启动 ```bash cd backend pip install -r ../requirements.txt python manage.py migrate python manage.py runserver ``` ### 3. 前端启动 ```bash cd front_qa npm install npm run dev ``` ### 4. 使用 浏览器访问 `http://localhost:5173`,上传文档后即可提问。 ## 核心特点 - **本地化部署**:无需联网,数据本地存储,隐私安全 - **架构清晰**:严格遵循分层设计(views → services),便于维护 - **精准高效**:通过检索增强生成,减少模型幻觉,提升问答准确性 - **流式响应**:边生成边展示,用户体验流畅 ## 备注 仅供学习交流使用。项目仓库:https://gitee.com/WatermelonAnimal/document-qa.git