AI伦理与治理系列04期:AI决策的可靠性和可解释性
未来·局     2021.08.15
演讲稿
讲者简介


会议议程

- 北京时间 2021年8月15日(周日)上午10:00-12:30

- 美东时间 2021年8月14日(周六)晚上22:00-00:30

- 美西时间 2021年8月14日(周六)晚上19:00-21:30

10:00-10:05 主持开场

- 崔  鹏,未来论坛青创联盟成员,清华大学计算机系长聘副教授,博士生导师

10:05-11:05 主题报告

《从可解释AI到可理解AI:基于算法治理的视角》

- 梁  正,清华大学公共管理学院教授,清华大学人工智能国际治理研究院副院长

摘要:从技术角度来看,对于特定人工智能算法而言,一般意义上的算法可解释性(Interpretability)实际上指的是在给定输入或算法参数的前提下,能够预测其输出或结果,在实质上更接近于可预见性。而如果按照相关政策法律如GDPR的要求,“可解释性”(Explainability)则意味着能够用某类术语解释系统的内部机制的程度或能够解释正在发生的事情的内在原因,对于某个AI应用而言,意味着其应用/业务逻辑应当是可以描述和解释的。与上述两点不同,可理解性(understandability)意味着算法/业务模型的功能应当能够为人们所理解,而不需要掌握专门知识或了解其内部结构。因而,从算法治理的角度,算法模型的可解释性不仅仅是一个技术问题,而是涉及到与相关政策法律要求的匹配,乃至与使用者和社会公众的沟通,从而成为公共治理问题。


《人工智能:从“知其然”到“知其所以然”》

- 崔  鹏,未来论坛青创联盟成员,清华大学计算机系长聘副教授,博士生导师

摘要:近年来人工智能技术的发展,在人脸识别、棋类游戏若干垂直领域取得了性能突破。但当重新审视人工智能技术的“能”与“不能”时,我们发现其在理论方法层面存在的两大局限:(1)缺乏“举一反三”的能力,在一个环境或场景中学习的模型难以泛化到其他环境和场景;(2)推理结果和推理过程难以解释,限制了人工智能技术在社会计算、智慧医疗、金融科技等风险敏感领域的应用。究其深层次原因,均是因为今天的人工智能技术“只知其然,不知其所以然”。讲者将系统性回顾人工智能技术的发展历程以及当前主要进展,并结合自身研究展望人工智能理论和技术的发展趋势。

 

《可解释性博弈交互体系:对归因权重、鲁棒性、泛化性、视觉概念和美观性的统一》

- 张拳石,上海交通大学副教授 

摘要:深度神经网络的可解释性近年来受到大家越来越多的关注,相关技术流派也呈百家争鸣的状态。但是目前大部分可解释性算法往往侧重于工程性的功能实现,侧重于迎合人类对被解释事物的主观认知,而缺少基于统一的理论基础的科学理论体系,影响了可解释性算法的严谨性,阻碍了可解释性研究的进一步发展。在本次演讲中,嘉宾将介绍其团队近年来在构建神经网络可解释性理论方向的众多研究,即如何在博弈交互的理论框架下,统一解释神经网络的归因权重、神经网络的对抗鲁棒性、神经网络的泛化能力、神经网络所建模的视觉概念分类,以及输入图像的视觉美观性。

 

《AI可靠性和可解释性:软件工程视角》

-  谢  涛,未来论坛青创联盟成员,北京大学计算机科学技术系讲席教授,高可信软件技术教育部重点实验室(北京大学)副主任,北京大学信息技术高等研究院数据驱动软件开发实验室主任    

摘要:作为人工智能与软件工程交叉融合的例子,智能化软件工程和智能软件工程近年来有了很多进展。前者,智能化[软件工程]侧重于在为解决各种软件工程任务而研发的方法中灌输智能。后者,[智能软件]工程,专注于解决智能软件应用领域的各种软件工程任务。本次演讲将从智能软件工程视角讨论AI可靠性和可解释性的进展和挑战。

11:05-12:10 圆桌讨论

对话议题:

1、AI可靠性和可解释性的现实风险和公众诉求

2、AI可靠性和可解释性之间的关系? 

3、技术视角,AI可靠性和可解释性的新技术在实际应用中的机会和挑战

4、社会治理角度:公众、政府和社会如何参与到AI可靠性的发展?

5、强监管环境下,政府和企业在应对AI可靠性风险方面应该如何联动?

12:10-12:30 现场问答环节Q&A




请填写以下表格

如果您有您感兴趣的工作,请描述相应工作的URL。工作清单可供使用这里.

分享
摘要
随着 AI 的发展和广泛应用,研究者和开发者面临的挑战是理解和追溯算法如何得出结果。可解释的AI,可使人类用户和开发者能够理解和信任机器学习算法所产生的结果和输出。了解AI的系统如何生成特定输出,可以帮助开发者确保系统按预期运行,建立可定义的监管标准,并以此对 AI 进行模型监视和问责,最终降低生产 AI 的合规性、法律、安全和声誉风险。 本期活动,将阐明公众、政策法规和AI技术研究与开发者对AI可解释性的理解和需求上的不同,分享AI的可解释性、稳定性和鲁棒性、可回溯可验证三个方面的技术研究和解决方案,共同探讨实现AI可解释可靠的道路。