AI伦理与治理系列04期:AI决策的可靠性和可解释性
未来·局     2021.08.15
演讲稿
讲者简介


会议议程

- 北京时间 2021年8月15日(周日)上午10:00-12:30

- 美东时间 2021年8月14日(周六)晚上22:00-00:30

- 美西时间 2021年8月14日(周六)晚上19:00-21:30

10:00-10:05 主持开场

- 崔  鹏,未来论坛青年科学家,清华大学计算机系长聘副教授,博士生导师

10:05-11:05 主题报告

《从可解释AI到可理解AI:基于算法治理的视角》

- 梁  正,清华大学公共管理学院教授,清华大学人工智能国际治理研究院副院长

摘要:从技术角度来看,对于特定人工智能算法而言,一般意义上的算法可解释性(Interpretability)实际上指的是在给定输入或算法参数的前提下,能够预测其输出或结果,在实质上更接近于可预见性。而如果按照相关政策法律如GDPR的要求,“可解释性”(Explainability)则意味着能够用某类术语解释系统的内部机制的程度或能够解释正在发生的事情的内在原因,对于某个AI应用而言,意味着其应用/业务逻辑应当是可以描述和解释的。与上述两点不同,可理解性(understandability)意味着算法/业务模型的功能应当能够为人们所理解,而不需要掌握专门知识或了解其内部结构。因而,从算法治理的角度,算法模型的可解释性不仅仅是一个技术问题,而是涉及到与相关政策法律要求的匹配,乃至与使用者和社会公众的沟通,从而成为公共治理问题。


《人工智能:从“知其然”到“知其所以然”》

- 崔  鹏,未来论坛青年科学家,清华大学计算机系长聘副教授,博士生导师

摘要:近年来人工智能技术的发展,在人脸识别、棋类游戏若干垂直领域取得了性能突破。但当重新审视人工智能技术的“能”与“不能”时,我们发现其在理论方法层面存在的两大局限:(1)缺乏“举一反三”的能力,在一个环境或场景中学习的模型难以泛化到其他环境和场景;(2)推理结果和推理过程难以解释,限制了人工智能技术在社会计算、智慧医疗、金融科技等风险敏感领域的应用。究其深层次原因,均是因为今天的人工智能技术“只知其然,不知其所以然”。讲者将系统性回顾人工智能技术的发展历程以及当前主要进展,并结合自身研究展望人工智能理论和技术的发展趋势。

 

《可解释性博弈交互体系:对归因权重、鲁棒性、泛化性、视觉概念和美观性的统一》

- 张拳石,上海交通大学副教授 

摘要:深度神经网络的可解释性近年来受到大家越来越多的关注,相关技术流派也呈百家争鸣的状态。但是目前大部分可解释性算法往往侧重于工程性的功能实现,侧重于迎合人类对被解释事物的主观认知,而缺少基于统一的理论基础的科学理论体系,影响了可解释性算法的严谨性,阻碍了可解释性研究的进一步发展。在本次演讲中,嘉宾将介绍其团队近年来在构建神经网络可解释性理论方向的众多研究,即如何在博弈交互的理论框架下,统一解释神经网络的归因权重、神经网络的对抗鲁棒性、神经网络的泛化能力、神经网络所建模的视觉概念分类,以及输入图像的视觉美观性。

 

《AI可靠性和可解释性:软件工程视角》

-  谢  涛,未来论坛青年科学家,北京大学计算机科学技术系讲席教授,高可信软件技术教育部重点实验室(北京大学)副主任,北京大学信息技术高等研究院数据驱动软件开发实验室主任    

摘要:作为人工智能与软件工程交叉融合的例子,智能化软件工程和智能软件工程近年来有了很多进展。前者,智能化[软件工程]侧重于在为解决各种软件工程任务而研发的方法中灌输智能。后者,[智能软件]工程,专注于解决智能软件应用领域的各种软件工程任务。本次演讲将从智能软件工程视角讨论AI可靠性和可解释性的进展和挑战。

11:05-12:10 圆桌讨论

对话议题:

1、AI可靠性和可解释性的现实风险和公众诉求

2、AI可靠性和可解释性之间的关系? 

3、技术视角,AI可靠性和可解释性的新技术在实际应用中的机会和挑战

4、社会治理角度:公众、政府和社会如何参与到AI可靠性的发展?

5、强监管环境下,政府和企业在应对AI可靠性风险方面应该如何联动?

12:10-12:30 现场问答环节Q&A


崔 鹏

未来论坛青年科学家,清华大学计算机系长聘副教授,博士生导师

崔鹏,清华大学计算机系长聘副教授,博士生导师。研究兴趣聚焦于大数据驱动的因果推理和稳定预测、大规模网络表征学习等。在数据挖掘及人工智能领域顶级国际会议发表论文100余篇,先后5次获得顶级国际会议或期刊论文奖,并先后两次入选数据挖掘领域顶级国际会议KDD最佳论文专刊。担任IEEE TKDE、ACM TOMM、ACM TIST、IEEE TBD等国际顶级期刊编委。曾获得国家自然科学二等奖、教育部自然科学一等奖、电子学会自然科学一等奖、北京市科技进步一等奖、中国计算机学会青年科学家奖、国际计算机协会(ACM)杰出科学家。


梁 正

清华大学公共管理学院教授,清华大学人工智能国际治理研究院副院长

南开大学经济学博士,麻省理工学院富布莱特研究访问学者,现任清华大学公共管理学院教授,中国科技政策研究中心副主任,人工智能国际治理研究院副院长、科技发展与治理研究中心学术委员会秘书长,兼任中国科学学与科技政策研究会常务理事,中国国际科学技术合作协会理事,主要研究方向为科技创新政策、研发全球化、标准与知识产权、新兴技术治理。

在National Science Review, Journal of Informetrics, Industry and Corporate Change,Regional Studies等国内外学术期刊上发表论文超过80篇,曾担任国家创新调查制度咨询专家组专家(2014-2017),中美创新对话专家组专家(2015-2018),先后获第八届高等学校科学研究优秀成果一等奖,中国科学学与科技政策研究会优秀青年奖等多项奖励。


谢 涛

未来论坛青年科学家,北京大学计算机科学技术系讲席教授,高可信软件技术教育部重点实验室(北京大学)副主任,北京大学信息技术高等研究院数据驱动软件开发实验室主任 

谢涛,北京大学计算机科学技术系讲席教授,高可信软件技术教育部重点实验室(北京大学)副主任,北京大学信息技术高等研究院数据驱动软件开发实验室主任,美国科学促进会(AAAS)会士,电气电子工程师学会(IEEE)会士,美国计算机协会(ACM)杰出科学家。曾获科学探索奖,NSFC海外杰出青年科学基金以及其延续资助,美国NSF Faculty CAREER Award,ACM SIGSOFT杰出服务奖,IEEE TCSE杰出服务奖,ASE 2021最有影响力论文奖等。担任CCF软件工程专委会副主任,中国计算机大会(CNCC 2020)程序委员会主席,软件工程旗舰国际会议ICSE 2021程序委员会共同主席,《软件测试、验证与可靠性(STVR)》Wiley期刊联合主编等。主要研究领域包括软件工程,系统软件,软件安全,可信人工智能。


张拳石

上海交通大学副教授

张拳石,上海交通大学约翰霍普克罗夫特计算机科学中心长聘教轨副教授,博士生导师,入选国家级海外高层次人才引进计划,获ACM China新星奖。他于2014年获得日本东京大学博士学位,于2014-2018年在加州大学洛杉矶分校(UCLA)从事博士后研究,主要研究方向包括机器学习和计算机视觉。其研究工作主要发表在计算机视觉、人工智能、机器学习等不同领域的顶级期刊和会议上(包括IEEE T-PAMI、ICML、ICLR、CVPR、ICCV、AAAI、KDD、ICRA等)。近年来,张拳石在神经网络可解释性方向取得了多项具有国际影响力的创新性成果。张拳石承担了ICPR 2020的领域主席,CCF-A类会议IJCAI 2020和IJCAI 2021的可解释性方向的Tutorial,并先后担任了AAAI 2019, CVPR 2019, ICML 2021大会可解释性方向的分论坛主席。


李正风

清华大学社会科学学院社会学系教授

李正风,1963年生,哲学博士,清华大学社会学系教授,清华大学社会科学学位分委员会主席。中国科学院学部-清华大学科学与社会协同发展研究中心主任,中国科协-清华大学科技传播与普及研究中心副主任,中国科协-清华大学科技发展与治理研究中心副主任。《科学学研究》副主编、Cultures of Science副主编等。兼任中国科学学与科技政策研究会常务理事、中国社会学会常务理事、中国自然辩证法研究会常务理事等,担任《国家中长期科学和技术发展规划纲要(2006-2020)》起草组成员,中华人民共和国《科技进步法》修订专家组成员等。主要研究领域包括:科技的社会研究、科学文化、科技与工程伦理、科技发展战略与科技政策、中国创新体系研究等。


陶大程

京东探索研究院院长、澳大利亚科学院院士

陶大程,京东探索研究院院长,同时兼任清华大学卓越访问教授、中国科学技术大学大师讲席教授。加入京东前,在悉尼大学担任澳大利亚桂冠教授、Peter Nicol Russell讲习教授、悉尼大学人工智能中心主任。

他主要从事人工智能与可信人工智能领域的研究,在权威杂志和重要会议上发表了200余篇论文;论文被引用6万5千余次,h-index:132,并多次荣获顶级国际会议最佳论文奖、时间检验奖。

2015年、2020年两度获得澳大利亚尤里卡奖以、2021年荣获IEEE计算机协会Edward J McCluskey技术成就奖、2018年获得IEEE ICDM研究贡献奖、2015年荣获悉尼科技大学校长奖章、2020年荣获悉尼大学校长研究贡献奖。他先后当选IAPR/IEEE/AAAS/ACM Fellow、欧洲科学院(Academia European)外籍院士、新南威尔士皇家学院院士、以及澳大利亚科学院院士。



请填写以下表格

如果您有您感兴趣的工作,请描述相应工作的URL。工作清单可供使用这里.

分享
摘要
随着 AI 的发展和广泛应用,研究者和开发者面临的挑战是理解和追溯算法如何得出结果。可解释的AI,可使人类用户和开发者能够理解和信任机器学习算法所产生的结果和输出。了解AI的系统如何生成特定输出,可以帮助开发者确保系统按预期运行,建立可定义的监管标准,并以此对 AI 进行模型监视和问责,最终降低生产 AI 的合规性、法律、安全和声誉风险。 本期活动,将阐明公众、政策法规和AI技术研究与开发者对AI可解释性的理解和需求上的不同,分享AI的可解释性、稳定性和鲁棒性、可回溯可验证三个方面的技术研究和解决方案,共同探讨实现AI可解释可靠的道路。