Ep. 041  智能陷阱 - 科技伦理与人类社会系列 -- 廖庆子,王大阔: 以人为本的人工智能【湾区文化沙龙】湾区文化沙龙

Ep. 041 智能陷阱 - 科技伦理与人类社会系列 -- 廖庆子,王大阔: 以人为本的人工智能【湾区文化沙龙】

118分钟 ·
播放数110
·
评论数0

系列介绍:科技伦理问题在信息科技领域愈发获得重视。互联网和社交媒体带来了资讯爆炸,也包括真伪难辨的信息;人工智能可以提高效率,但也有人担忧它是否会威胁人类的未来;无孔不入的大数据网络提供了便利,却令网络个人隐私保护成为一个问题。网络技术给大部分人提供了更多资讯和便捷,同时也可能令弱势人群成为被技术抛弃和遗忘的群体。为了厘清技术与人类社会的复杂关系和科技伦理的种种迷思,我们邀请到几位在相关领域的研究专家来一一解读。

主讲人介绍
主讲人:廖庆子
IBM Thomas J. Watson Research Center研究员,UIUC计算机科学博士。主要研究方向为人机交互,人与人工智能交互,可解释性人工智能,和对话机器人。
主讲人:王大阔
IBM Thomas J. Watson Research Center研究员。UC Irvine信息科学博士。主要研究方向为自动化人工智能,对话机器人,人与人工智能合作。

讲座要点:
这期沙龙我们请到IBM Watson研究所的两位科学家为我们解读可解释的人工智能,以及人工智能和人类合作的现状与未来。

00:00:00 介绍
00:03:00 上半场:以人为本
00:05:00 什么是人工智能
-- 目的:预测与分类
00:10:00 -- 各种AI算法
00:12:00 -- 人工智能的应用
00:16:00 以人为本的AI设计
00:17:30 -- 案例分析: IBM autoAI
00:19:00 -- 案例分析: responsible and fair AI
00:22:30 -- 案例分析: interpretable and explainable AI
00:26:30 -- 大公司AI设计章程
00:28:30 AI作为人类的合作伙伴
00:30:30 -- 案例:医疗健康领域
00:46:00 -- 案例:教育领域
00:52:00 未来展望:具有合作精神的AI
00:54:00 下半场:可解释性
00:57:00 为什么要可解释的人工智能
01:00:00 达到可解释性的方法
01:09:00 提供ai解释性的开源工具
01:10:30 可解释性与AI伦理
01:12:30 -- 可解释性作为以人为本AI的基础
01:14:00 -- 无歧视AI
01:19:30 -- 可解释性帮助决策、评估
01:22:30 可解释性面临的挑战
-- 挑战1:没有通用答案
01:27:30 -- 挑战2:人与AI在解释上的区别
01:30:00 -- 挑战3:可解释性的局限
01:35:00 Q&A

线上提问:请访问SLI.DO, 输入活动码 #AIFHM 进入提问页面: app.sli.do

给湾区文化沙龙打赏: www.venmo.com
-------------------------------------------------------------------------------------------------------

我们还有其他的信息渠道,欢迎选择你常用的平台,第一时间获得我们的活动信息:

微信公众号: 湾区文化沙龙
我们的网站: bayersshalong.org
我们的Maillist: mailchi.mp
我们的fb: www.facebook.com
我们的微博: weibo.com
我们的matters: matters.news
我们的podcast: pod.link