登录    注册    忘记密码

期刊文章详细信息

可解释人工智能及其对管理的影响:研究现状和展望    

Explainable Artificial Intelligence and Its Impact on Management:Research Status and Prospects

  

文献类型:期刊文章

作  者:张成洪[1] 陈刚[1] 陆天[2] 黄丽华[1]

ZHANG Chenghong;CHEN Gang;LU Tian;HUANG Lihua(School of Management,Fudan University,Shanghai 200433,China;H.John Heinz III College,Carnegie Mellon University,Pittsburgh 15213,U.S.)

机构地区:[1]复旦大学管理学院,上海200433 [2]卡耐基梅隆大学约翰·海因茨公共政策与管理学院,宾夕法尼亚匹兹堡15213

出  处:《管理科学》

基  金:国家自然科学基金(71971067)。

年  份:2021

卷  号:34

期  号:3

起止页码:63-79

语  种:中文

收录情况:BDHX、BDHX2020、CSSCI、CSSCI2021_2022、JST、NSSD、RCCSE、RWSKHX、SKJJZZ、ZGKJHX、核心刊

摘  要:以人工智能技术创新和应用为主的人工智能产业发展如火如荼,推动了人类生产和生活的智慧化进程。而人工智能系统在实际应用中面临诸多挑战,如基于黑箱的人工智能模型决策不可避免地出现偏差,其决策过程和决策结果难以被理解和信任。因此,人们对理解"黑箱模型"的需求日益迫切,一个全新的研究领域——可解释人工智能逐渐兴起。梳理可解释人工智能的兴起历程,探究其对人工智能发展带来的影响;从理论、方法和应用3个角度出发,系统阐述可解释人工智能的研究现状,特别地,对已有可解释人工智能方法研究进行总结性分析;从管理视角出发,剖析已有可解释人工智能研究在方法和应用层面存在的不足,重点分析可解释人工智能为管理领域带来的挑战;面向管理决策研究提出可解释人工智能未来可行的研究方向。研究结果表明,可解释人工智能已经受到学术界、产业界和政府部门的广泛关注,一系列可解释方法和方案的提出为实现人机良好协同和互动提供了契机。可解释人工智能的核心目标在于提升人工智能模型的准确性、可靠性、因果性、透明性、安全性和公平性等。大多数可解释方法聚焦于提升深度学习模型的可解释性,这些方法普遍局限于事后可解释,且难以兼顾模型准确性和模型可解释性。此外,如何将人工智能系统的应用与可解释人工智能相结合是可解释方法研究亟待解决的问题。从管理视角看,现有可解释方案效率低、成本高,可解释人工智能需要更加友好和普适。结合管理决策,有必要探索可解释人工智能背景下新的管理决策模式,有必要探究基于可解释人工智能实现人机协同共生的决策提升模式。研究结果厘清了可解释人工智能的概念内涵、可解释指标体系和方法论框架,明确了其发展面临的挑战和机遇,为可解释人工智能研�

关 键 词:可解释人工智能理论  可解释人工智能方法  可解释人工智能应用  管理决策  研究展望  

分 类 号:C931.6[管理科学与工程类]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心