科学技术与应用

  • Home
  • About
    • About the Journal
    • Contact
  • Article
    • Current
    • Archives
  • Submissions
  • Editorial Team
  • Announcements
Register Login

ISSN

3060-9453(Oline)
3060-9461(Print)

Article Processing Charges (APCs)

SGD$600

Publication Frequency

Bi-Monthly

PDF

Published

2025-11-18

Issue

Vol 2 No 5 (2025): Published

Section

Articles

How to Cite

  • ACM
  • ACS
  • APA
  • ABNT
  • Chicago
  • Harvard
  • IEEE
  • MLA
  • Turabian
  • Vancouver

  • Download Citation
  • Endnote/Zotero/Mendeley (RIS)
  • BibTeX

基于大语言模型和知识库的工程施工规范问答系统构建研究

肖 皓

北京建筑大学城市经济与管理学院


DOI: https://doi.org/10.59429/kxjsyy.v2i5.12011


Keywords: 大语言模型;RAG 施工规范;问答系统;本地知识库


Abstract

本研究利用 Langchain 框架与 Qwen-max 大模型结合,通过搭载施工规范知识库创建一个施工规范问答系 统,通过引入住房和城乡建设部发布的施工规范类文件和工程论坛中的问答对创建了施工规范本地知识库,通过施 工规范本地知识库增强了以 Qwen-max 模型为基座模型的施工规范问答系统的应用能力,实现 Qwen-max 模型在施 工规范问答领域的应用。使用评价响应的事实准确性(FA)和完整性(CR)两项指标分别评价施工规范问答系统、 Qwen-max 模型和 Deepseek-R1 模型对施工规范测试集的响应,施工规范问答系统的准确性指标远强于 Qwen-max 模 型和 Deepseek-R1 模型,完整性指标稍逊于 Deepseek-R1 模型,但也强于 Qwen-max 模型,总体来说施工规范问答系 统的表现强于 Qwen-max 模型和参数量更大的 Deepseek-R1 模型,说明通过检索增强生成(RAG)的方法能提高通 用模型在施工规范问答领域的应用能力。


References

[1] 齐思洋,胡慧云,李洪冰等 . 融合大语言模型的领域问答系统构建方法[J]. 北京邮电大学学报,2024,47(04):50-56.DOI:10.13190/j.jbupt.2023-279.

[2] Wang S H, Xu Y C, Fang Y W, et al. Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data[A]. //The 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)[C]. Stroudsburg: ACL, 2022: 3170-3179.

[3] 王文湖,韦昌法 . 基于大语言模型和知识库的阿尔茨海默病智能问答系统构建研究[J]. 世界科学技术 - 中医药现代化,2025,27(03):856-866.

[4] 李明达,邸洪波,孙媛媛等 . 基于法条检索的生成式法律问答研究[J/OL]. 山西大学学报 ( 自然科学版 ),1-13[2025-05-18]. https://doi.org/10.13451/j.sxu.ns.2024159.

[5] 季晓慧,刘成健,杨眉等 . 大语言模型及其在矿物问答系统中的应用[J/OL]. 矿物岩石地球化学通报,1-9[2025-05-18].http://kns.cnki.net/kcms/detail/52.1102.P.20250305.1707.001.html.

[6] 乔少杰,杨国平,于泳等 . QA-KGNet: 一种语言模型驱动的知识图谱问答模型[J]. 软件学报,2023,34(10):4584-4600.DOI:10.13328/j.cnki.jos.006882.

[7] KIRKPATRICK J, PASCANU R, RABINOWITZ N, et al. Overcoming catastrophic forgetting in neural networks[J]. Proceedings of the National Academy of Sciences of the United States of America, 2017, 114(13): 3521-3526. DOI:10.1073/pnas.1611835114.

[8] TINN R, CHENG H, GU Y, et al. Fine-tuning large neural language models for biomedical natural language processing[J]. Patterns, 2023, 4(4): 100729. DOI:10.1016/j.patter.2023.100729.

[9] MOSBACH M, ANDRIUSHCHENKO M, KLAKOW D. On the stability of fine-tuning BERT: misconceptions, explanations, and strong baselines[EB/OL]. (2020-06-16)[2024-06-30]. arXiv:2006.04884v3.

[10] JI Z W, LEE N, FRIESKE R, et al. Survey of hallucination in natural language generation[EB/OL].2022:2202.03629.[2024-06-30]. https://arxiv.org/abs/2202.03629v7.

[11] CHEN J W, LIN H Y, HAN X P, et al. Benchmarking large language models in retrieval-augmented generation[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2024, 38(16): 17754- 17762. DOI: 10.1609/aaai.v38i16.29728.

[12] Gao Y, Xiong Y, Gao X, et al. Retrieval-augmented generation for large language models: A survey. arxiv preprint arxiv:2312.10997, 2023.

[13] 覃思中,郑哲,顾燚等 . 大语言模型在建筑工程中的应用测试与讨论[J]. 工业建筑,2023,53(09):162-169.DOI:10.13204/j.gyjzg23081006.

[14] 丁志坤,李金泽,刘明辉 . 基于大语言模型的 BIM正 向 设 计 问 答 系 统 研 究[J ] . 土 木 工 程 与 管 理 学 报 ,2024,41(01):1-7+12.DOI:10.13579/j.cnki.2095-0985.2024.20240046.



ISSN: 3060-9453
21 Woodlands Close #02-10 Primz Bizhub Singapore 737854

Email:editorial_office@as-pub.com