基于本地知识库+LLM的问答系统。该项目的思路是由langchain-ChatGLM启发而来。
- 缘由:
- 之前使用过这个项目,感觉不是太灵活,部署不太友好。
- 借鉴如何用大语言模型构建一个知识问答系统中思路,尝试以此作为实践。
- 优势:
- 整个项目为模块化配置,不依赖
lanchain
库,各部分可轻易替换,代码简单易懂。 - 除需要单独部署大模型接口外,其他部分用CPU即可。
- 支持常见格式文档,包括txt、md、pdf, docx, pptx, excel等等。当然,也可自定义支持其他类型文档。
- 整个项目为模块化配置,不依赖
完整文档请移步:docs.
- Support keyword + vector hybrid search.
- Vue.js based UI .
我们感谢所有的贡献者为改进和提升 RapidOCR 所作出的努力。
- 欢迎提交请求。对于重大更改,请先打开issue讨论您想要改变的内容。
- 请确保适当更新测试。
如果您想要赞助该项目,可直接点击当前页最上面的Sponsor按钮,请写好备注(您的Github账号名称),方便添加到赞助列表中。
该项目采用Apache 2.0开源许可证。