登录    注册    忘记密码

期刊文章详细信息

面向开源情报的信息抽取大语言模型    

Large language models for open-source intelligence information extraction

  

文献类型:期刊文章

作  者:赵勤博[1] 王又辰[1] 陈荣[2] 宋颖毅[1] 栾真[1] 田夫兰[1]

ZHAO Qin-bo;WANG You-chen;CHEN Rong;SONG Ying-yi;LUAN Zhen;TIAN Fu-lan(Institute 706,Second Academy of China Aerospace Science and Industry Corporation,Beijing 100854,China;Information Technology Center,General Office of Yunnan Provincial Committee of the Communist Party of China,Kunming 650228,China)

机构地区:[1]中国航天科工集团第二研究院七〇六所,北京100854 [2]中共云南省委办公厅信息技术中心,云南昆明650228

出  处:《计算机工程与设计》

年  份:2024

卷  号:45

期  号:12

起止页码:3772-3778

语  种:中文

收录情况:BDHX、BDHX2023、JST、RCCSE、ZGKJHX、核心刊

摘  要:针对开源情报信息抽取过程依赖多类专用模型和抽取属性限制强等问题,基于一种GLM大语言模型进行指令微调和上下文学习提高信息抽取准确率,利用指令自动化生成方法对原始问题进行泛化,构建SFT数据集。开展多任务统一的微调学习常见抽取模式,通过自动思维链扩充提示增强模型推理能力。实验结果表明,该方法在开源情报命名实体识别、关系抽取和事件抽取任务上,微调模型能满足不同场景下的抽取要求,具有较好的抽取效果。

关 键 词:开源情报 大语言模型  信息抽取 指令自动化生成  指令微调  上下文学习  自动思维链  

分 类 号:TP311]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心