主页期刊介绍编委会编辑部服务介绍道德声明在线审稿编委办公English
2022年专刊出版计划 微信服务介绍 最新一期:2021年第2期
     
在线出版
各期目录
纸质出版
分辑系列
论文检索
论文排行
综述文章
专刊文章
美文分享
各期封面
E-mail Alerts
RSS
旧版入口
中国科学院软件研究所
  
投稿指南 问题解答 下载区 收费标准 在线投稿
刘文炎,沈楚云,王祥丰,金博,卢兴见,王晓玲,查宏远,何积丰.可信机器学习的公平性综述.软件学报,2021,32(5):0
可信机器学习的公平性综述
Fairness in Trustworthy Machine Learning: A Survey
投稿时间:2020-07-19  修订日期:2020-10-02
DOI:10.13328/j.cnki.jos.006214
中文关键词:  可信人工智能  可信机器学习  公平性  统计公平  因果公平  公平表征  公平建模  公平决策
英文关键词:Trustworthy Artificial Intelligence  Trustworthy Machine Learning  Fairness  Statistical Fairness  Causal Fairness  Fair Representation  Fair Modeling  Fair Decision-Making
基金项目:上海市科委创新行动计划人工智能科技支持专项(20DZ1100300,20511101100),国家自然科学基金(61972155,61672231,12071145),上海市自然科学基金(19ZR1414200),国家重点研发计划(2020AAA0107400,2018YFB2101300)
作者单位E-mail
刘文炎 华东师范大学 软件工程学院, 上海 200062  
沈楚云 华东师范大学 计算机科学与技术学院, 上海 200062  
王祥丰 华东师范大学 计算机科学与技术学院, 上海 200062
上海自主智能无人系统科学中心 可信人工智能研究所, 上海 200092 
xfwang@cs.ecnu.edu.cn 
金博 华东师范大学 计算机科学与技术学院, 上海 200062
上海自主智能无人系统科学中心 可信人工智能研究所, 上海 200092 
bjin@cs.ecnu.edu.cn 
卢兴见 华东师范大学 计算机科学与技术学院, 上海 200062  
王晓玲 华东师范大学 计算机科学与技术学院, 上海 200062
上海自主智能无人系统科学中心 可信人工智能研究所, 上海 200092 
xlwang@cs.ecnu.edu.cn 
查宏远 华东师范大学 计算机科学与技术学院, 上海 200062
上海自主智能无人系统科学中心 可信人工智能研究所, 上海 200092 
 
何积丰 上海自主智能无人系统科学中心 可信人工智能研究所, 上海 200092华东师范大学 软件工程学院, 上海 200062  
摘要点击次数: 703
全文下载次数: 256
中文摘要:
      人工智能在与人类生活息息相关的场景中自主决策时,正逐渐面临法律或伦理的问题或风险.可信机器学习是建立安全人工智能系统的核心技术,是人工智能领域的热门研究方向,而公平性是可信机器学习的重要考量.公平性旨在研究机器学习算法决策对个人或群体不存在因其固有或后天属性所引起的偏见或偏爱.本文从公平表征、公平建模和公平决策三个角度出发,以典型案例中不公平问题及其危害为驱动,分析数据和算法中造成不公平的潜在原因,建立机器学习中的公平性抽象定义及其分类体系,进一步研究用于消除不公平的机制.可信机器学习中的公平性研究在人工智能多个领域中处于起步阶段,如计算机视觉、自然语言处理、推荐系统、多智能体系统和联邦学习等.建立具备公平决策能力的人工智能算法,是加速推广人工智能落地的必要条件,且极具理论意义和应用价值.
英文摘要:
      Artificial intelligence raises legal and ethical issues or risks when used to automated decision-making in areas closely related to our daily life. Trustworthy machine learning is the core technology in artificial safety. It is a trending research direction, of which fairness is an essential aspect. Fairness is the absence of any prejudice or favoritism towards an individual or a group based on their inherent or acquired characteristics that are irrelevant in the particular context of decision-making. We provide a comprehensive and structured overview of three research contents:fair representation, fair modeling, and fair decision-making algorithm. We first identify the potential causes and harmful consequences of unfairness in data and algorithm processing. Then, we extract the abstract definition and summarize primary mechanisms for eliminating unfairness. The research on fairness is at its early stage in fields such as computer vision, natural language processing, recommender systems, multi-agent systems, and federated learning. Fairness is a prerequisite for the application of machine learning. Constructing fair algorithms has theoretical significance and practical values.
HTML  下载PDF全文  查看/发表评论  下载PDF阅读器
 

京公网安备 11040202500064号

主办单位:中国科学院软件研究所 中国计算机学会 京ICP备05046678号-4
编辑部电话:+86-10-62562563 E-mail: jos@iscas.ac.cn
Copyright 中国科学院软件研究所《软件学报》版权所有 All Rights Reserved
本刊全文数据库版权所有,未经许可,不得转载,本刊保留追究法律责任的权利