高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

一种面向特定信息领域的大模型命名实体识别方法

李永斌 刘楝 郑杰

李永斌, 刘楝, 郑杰. 一种面向特定信息领域的大模型命名实体识别方法[J]. 电子与信息学报. doi: 10.11999/JEIT250764
引用本文: 李永斌, 刘楝, 郑杰. 一种面向特定信息领域的大模型命名实体识别方法[J]. 电子与信息学报. doi: 10.11999/JEIT250764
LI Yongbin, LIU Lian, ZHENG Jie. A Method for Named Entity Recognition in Military Intelligence Domain Using Large Language Models[J]. Journal of Electronics & Information Technology. doi: 10.11999/JEIT250764
Citation: LI Yongbin, LIU Lian, ZHENG Jie. A Method for Named Entity Recognition in Military Intelligence Domain Using Large Language Models[J]. Journal of Electronics & Information Technology. doi: 10.11999/JEIT250764

一种面向特定信息领域的大模型命名实体识别方法

doi: 10.11999/JEIT250764 cstr: 32379.14.JEIT250764
详细信息
    作者简介:

    李永斌:男,工程师,研究方向为数据处理分析挖掘

    刘楝:男,工程师,研究方向为数据处理分析挖掘

    郑杰:男,工程师,研究方向为自然语言处理

    通讯作者:

    郑杰 zhengjie@aircas.ac.cn

  • 中图分类号: TP391.1

A Method for Named Entity Recognition in Military Intelligence Domain Using Large Language Models

  • 摘要: 在特定信息领域,尤其是开源信息领域,传统模型命名实体识别面临缺乏充足标注数据、难以满足复杂信息抽取任务等困难。该文聚焦开源信息领域,提出一种基于大语言模型的命名实体识别方法,旨在通过大语言模型强大的语义推理能力准确理解复杂的抽取要求,并自动完成抽取任务。通过指令微调和利用检索增强生成将专家知识融入模型,结合问题回归模块,使低参数通用型大模型基座能够快速适应开源信息这一特定领域,形成领域专家模型。实验结果表明,仅需少量的成本,便能构建一个高效的领域专家系统,为开源信息领域的命名实体识别提供了一种更为有效的解决方案。
  • 图  1  模型框架图

    图  2  反思提示词模版

    表  1  指令数据集样例

    样例
    Instruction 你是一个nlp专家,抽取出以下用户输入内容中的实体,实体类型包括人员、组织机构、武器装备、时间、地点,其中将文本中关于武器装备对应的状态和数量拼接到武器装备名称后,武器装备的状态和数量通过分隔符**拼接,如果没有则不拼接,同一个武器装备的数量进行合并,数量如果没有说明默认为一个,输出按照json格式,没有的实体类型留空。
    Input 2月18日报道,美国海军宣布,上周与商船相撞的尼米兹级航空母舰“杜鲁门”号目前正在停靠希腊港口进行紧急维修。
    Output {"人员": [],"组织机构": ["美国海军"],"武器装备": ["尼米兹级航空母舰“杜鲁门”号**1**紧急维修”],"时间": ["2月18日"],"地点": ["希腊港口"]}
    下载: 导出CSV

    表  2  固定目标知识库数据库表字段信息

    序号字段名称描述
    1longitude经度
    2latitude纬度
    3name_target固定目标名称
    4name_alias固定目标别名
    5description固定目标描述
    6country国家
    7arm_force部署部队编号
    下载: 导出CSV

    表  4  编制序列知识库数据库表字段信息

    序号字段名称描述
    1country国家
    2code编码
    3name名称
    4description描述
    5parent上级部门
    6equipments_names部署装备名称
    下载: 导出CSV

    表  3  移动目标知识库数据库表字段信息

    序号字段名称描述
    1pennant_number舷号
    2name移动目标名称
    3name_en移动目标英文名称
    4name_alias移动目标别名
    5level级别
    6country国家
    7construct_shipyard造船厂
    8builder建造商
    9major_experience主要经历
    10member_of隶属部队
    11home_port母港
    12construct_date建造日期
    13service_date服役日期
    14retire_date退役日期
    下载: 导出CSV

    表  5  实验数据统计信息表

    统计信息训练集测试集
    数据量104261000
    实体类别数量55
    实体标注数量237808369
    标注样本文本平均长度27.8154.1
    下载: 导出CSV

    表  6  标注样例

    样例文本
    原始文本6月15日报道称,两架美国空军的F-22战斗机于当地时间6月13日下午4点左右从珍珠港-希卡姆联合基地起飞,
    第三架F-22战斗机在它们起飞约一小时后起飞,期间一架KC-135空中加油机也起飞为这些战斗机提供支援
    标注结果{"人员": [],"组织机构": ["美国空军"],"武器装备": ["F-22战斗机**起飞**3","KC-135空中加油机**起飞**1"],
    "时间": ["6月15日","6月13日下午4点左右"],"地点": ["珍珠港-希卡姆联合基地"]}
    下载: 导出CSV

    表  7  模型总体性能对比(%)

    精确率召回率F1值
    BiLSTM-CRF55.753.254.5
    BERT-CRF75.272.173.6
    UIE70.473.872.0
    Ours95.873.583.2
    下载: 导出CSV

    表  8  “人员”实体类别识别模型性能对比(%)

    精确率召回率F1值
    BiLSTM-CRF8.97.68.2
    BERT-CRF72.568.370.3
    UIE100.093.796.7
    本文90.642.858.2
    下载: 导出CSV

    表  12  模型“地点”实体类别性能对比(%)

    精确率召回率F1值
    BiLSTM+CRF63.475.468.9
    BERT-CRF85.684.284.9
    UIE92.491.892.1
    本文100.098.299.1
    下载: 导出CSV

    表  9  模型“组织机构”实体类别性能对比(%)

    精确率召回率F1值
    BiLSTM-CRF61.873.367.0
    BERT-CRF75.074.274.6
    UIE59.673.765.9
    本文99.572.583.9
    下载: 导出CSV

    表  10  模型“武器装备”实体类别性能对比(%)

    精确率召回率F1值
    BiLSTM-CRF41.629.734.7
    BERT-CRF72.360.565.9
    UIE53.452.052.7
    本文90.065.075.5
    下载: 导出CSV

    表  11  模型“时间”实体类别性能对比(%)

    精确率召回率F1值
    BiLSTM+CRF99.6100.099.8
    BERT-CRF99.899.599.6
    UIE100.0100.0100.0
    本文100.098.999.4
    下载: 导出CSV

    表  13  消融实验结果对比(%)

    精确率召回率F1值
    Ours(-Instruction Tuning)79.668.273.5
    Ours(-RAG)91.254.868.5
    本文95.873.583.2
    下载: 导出CSV

    表  14  本文模型与DeepSeek671B模型抽取结果对比

    案例
    Input 2024年12月5日,美国五角大楼宣布,在中东地区的军事行动中,美军特种部队于伊拉克巴格达市附近执行任务。此次行动涉及美军中央司令部指挥,行动人员包括由队长约翰·米勒带领的30人特种作战小组。行动中动用了5架AH - 64“阿帕奇”武装直升机,其中3架状态良好,可随时投入战斗,另外2架在前期执行任务后需要进行简单维护;还投入了10辆M1A2“艾布拉姆斯”主战坦克,所有坦克均处于正常战备状态。
    Prompt 你是一个nlp专家,抽取出以下内容中的实体,实体类型包括人员、组织机构、武器装备、时间、地点,其中文本中关于武器装备对应的状态和数量抽取后以字典格式进行组织,装备状态为词语,内容不要过长,同一个武器装备不同状态分别罗列输出,请将输出严格按照json格式组织,其他无关信息不要输出,如果有其他实体类型请抽取出来,没有的实体请留空。
    DeepSeek671B {"人员": [{"姓名": "约翰·米勒","职务": "队长"},{"描述": "30人特种作战小组"}],"组织机构": ["美国五角大楼","美军中央司令部"],"武器装备": [{"名称": "AH-64“阿帕奇”武装直升机","数量": 3,"状态": "良好"},{"名称": "AH-64“阿帕奇”武装直升机","数量": 2,"状态": "需维护"},{"名称": "M1A2“艾布拉姆斯”主战坦克","数量": 10,"状态": "正常战备"}],"时间": "2024年12月5日","地点": ["中东地区","伊拉克巴格达市附近"],"其他实体": []}
    本文(Qwen2.5B) {"人员": ["约翰·米勒"],"组织机构": ["美国五角大楼"],"武器装备": ["阿帕奇**3**状态良好","阿帕奇**2**需要维护","艾布拉姆斯**10**正常战备状态"],"时间": ["2024年12月5日"],"地点": ["中东地区","伊拉克巴格达市"]}
    本文(DeepSeek7B) {"人员": ["约翰·米勒"],"组织机构": [],"武器装备": ["AH-64阿帕奇武装直升机**3**良好","AH-64阿帕奇武装直升机**2**需要简单维护","M1A2艾布拉姆斯主战坦克**10**正常战备状态"],"时间": ["2024年12月5日"],"地点": ["伊拉克巴格达市附近"]}
    本文(DeepSeek8B) {"人员": ["约翰·米勒"],"组织机构": ["美国五角大楼","美军中央司令部"],"武器装备": ["AH-64“阿帕奇”武装直升机**3**良好","AH-64“阿帕奇”武装直升机**2**简单维护","M1A2“艾布拉姆斯”主战坦克**10**正常战备"],"时间": ["2024年12月5日"],"地点": ["中东地区","伊拉克巴格达市附近"]}
    下载: 导出CSV
  • [1] LAMPLE G, BALLESTEROS M, SUBRAMANIAN S, et al. Neural architectures for named entity recognition[C]. Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, San Diego, USA, 2016: 260–270. doi: 10.18653/v1/N16-1030.
    [2] DAI Zhenjin, WANG Xutao, NI Pin, et al. Named entity recognition using BERT BiLSTM CRF for Chinese electronic health records[C]. Proceedings of the 2019 12th International Congress on Image and Signal Processing, Biomedical Engineering and Informatics (CISP-BMEI), Suzhou, China, 2019: 1–5. doi: 10.1109/CISP-BMEI48845.2019.8965823.
    [3] WANG Chenguang, LIU Xiao, CHEN Zui, et al. Zero-shot information extraction as a unified text-to-triple translation[C]. Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, Punta Cana, Dominican Republic, 2021: 1225–1238. doi: 10.18653/v1/2021.emnlp-main.94.
    [4] YANG Qingping, HU Yingpeng, CAO Rongyu, et al. Zero-shot key information extraction from mixed-style tables: Pre-training on Wikipedia[C]. Proceedings of the 2021 IEEE International Conference on Data Mining (ICDM), Auckland, New Zealand, 2021: 1451–1456. doi: 10.1109/icdm51629.2021.00187.
    [5] LU Yaojie, LIU Qing, DAI Dai, et al. Unified structure generation for universal information extraction[C]. Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Dublin, Ireland, 2022: 5755–5772. doi: 10.18653/v1/2022.acl-long.395.
    [6] GUO Daya, YANG Dejian, ZHANG Haowei, et al. DeepSeek-R1: Incentivizing reasoning capability in LLMs via reinforcement learning[EB/OL]. https://arxiv.org/abs/2501.12948, 2025.
    [7] LIU Aixin, FENG Bei, XUE Bing, et al. Deepseek-v3 technical report[EB/OL]. https://arxiv.org/abs/2412.19437, 2024.
    [8] BI Xiao, CHEN Deli, CHEN Guanting, et al. DeepSeek LLM: scaling open-source language models with longtermism[EB/OL]. https://arxiv.org/abs/2401.02954, 2024.
    [9] YUAN Jingyang, GAO Huazuo, DAI Damai, et al. Native sparse attention: hardware-aligned and natively trainable sparse attention[C]. Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics, Vienna, Austria, 2025: 23078–23097. doi: 10.18653/v1/2025.acl-long.1126.
    [10] WANG Xiao, ZHOU Weikang, ZU Can, et al. InstructUIE: multi-task instruction tuning for unified information extraction[EB/OL]. https://arxiv.org/abs/2304.08085, 2023.
    [11] HU Danqing, LIU Bing, ZHU Xiaofeng, et al. Zero-shot information extraction from radiological reports using ChatGPT[J]. International Journal of Medical Informatics, 2024, 183: 105321. doi: 10.1016/j.ijmedinf.2023.105321.
    [12] KARTCHNER D, RAMALINGAM S, AL-HUSSAINI I, et al. Zero-shot information extraction for clinical meta-analysis using large language models[C]. Proceedings of the 22nd Workshop on Biomedical Natural Language Processing and BioNLP Shared Tasks, Toronto, Canada, 2023: 396–405. doi: 10.18653/v1/2023.bionlp-1.37.
    [13] 张国宾, 姬红兵, 王佳萌, 等. 基于通用信息抽取大模型的特定领域文本实体关系抽取研究[J]. 中国信息界, 2024(8): 159–161.

    ZHANG Guobin, JI Hongbing, WANG Jiameng, et al. Research on entity-relationship extraction from domain-specific texts leveraging generalized information extraction large models[J]. Information China, 2024(8): 159–161. (查阅网上资料, 未找到对应英文翻译信息, 请确认).
    [14] 皮乾坤, 卢记仓, 祝涛杰, 等. 一种基于大语言模型增强的零样本知识抽取方法[J/OL]. 计算机科学. https://link.cnki.net/urlid/50.1075.TP.20250123.1638.012, 2025.

    PI Qiankun, LU Jicang, ZHU Taojie, et al. A zero-shot knowledge extraction method based on large language model enhanced[J/OL]. Computer Science. https://link.cnki.net/urlid/50.1075.TP.20250123.1638.012, 2025.
    [15] 户才顺. 基于大语言模型的审计领域命名实体识别算法研究[J]. 计算机科学, 2025, 52(S1): 72–75.

    LU Caishun. Study on named entity recognition algorithms in audit domain based on large language models[J]. Computer Science, 2025, 52(S1): 72–75.
    [16] 胡慧云, 葛杨, 崔凌潇, 等. 融合多模态信息与大语言模型的生成式命名实体识别方法[J/OL]. 计算机工程与应用. https://doi.org/10.3778/j.issn.1002-8331.2503-0243, 2025.

    HU Huiyun, GE Yang, CUI Lingxiao, et al. Generative named entity recognition method integrating multimodal information and large language models[J/OL]. Computer Engineering and Applications. https://doi.org/10.3778/j.issn.1002-8331.2503-0243, 2025.
    [17] HU E J, SHEN Y, WALLIS P, et al. LoRA: low-rank adaptation of large language models[EB/OL]. https://arxiv.org/abs/2106.09685, 2021.
    [18] LEWIS P, PEREZ E, PIKTUS A, et al. Retrieval-augmented generation for knowledge-intensive NLP tasks[C]. Proceedings of the 34th International Conference on Neural Information Processing Systems, Vancouver, Canada, 2020: 793. doi: 10.5555/3495724.3496517.
  • 加载中
图(2) / 表(14)
计量
  • 文章访问数:  23
  • HTML全文浏览量:  9
  • PDF下载量:  6
  • 被引次数: 0
出版历程
  • 收稿日期:  2025-08-14
  • 修回日期:  2025-10-21
  • 网络出版日期:  2025-10-24

目录

    /

    返回文章
    返回