是的我们也要聊聊人工智能!这一次我们不说图像识别,自动驾驶,我们要讲一个和“机器”看似不太相关的领域 — 网络对话的同理心。同理心是可以后天习得的吗?怎样用机器/数学语言去表达它呢?来自人工智能的文本会给人类提供新的视角吗?我们邀请准 PhD Inna 和我们聊聊她刚于 The Web Conference 2021(WWW) 获得 the Best Paper Award 的研究: “Towards Facilitating Empathic Conversations in Online Mental Health Support: A Reinforcement Learning Approach" (用强化学习让心理健康平台的线上对话更富有同理心)。在对话中,我们惊喜的发现,探索机器学习也是一个我们人类自我学习的过程,在这个戾气满满的网络时代,促进沟通和理解我们能做的还有很多。
【嘉宾】
Inna,华盛顿大学计算机科学博士生。
【shownote】
(02:01)Inna是如何想到将机器学习和心理健康两者结合这个研究方向的?这个领域都有哪些研究课题?
(05:20) Peer-peer support的心理论坛是什么样的?为什么要用机器学习来提高同理心呢?
(09:29)同理心到底是什么?我们能从哪几个方面去衡量它?
(13:10)当教机器什么是同理心的同时,我们也开始反思怎么在日常对话中更具有同理心。
(18:00)线上交流会如何改变人与人的谈话模式?机器学习过程中会捕捉到不同对话者关系带来的多重语义吗?
(21:30)机器学习中机器和人谁才能站C位?
(23:45)具体模型构建时,同理心是如何被测量的?
(26:40)机器学习不正规入门,什么是监督学习,什么是非监督学习,什么是强化学习。详细的介绍强化学习的模型构造,
(28:56)为什么最终决定用强化学习技术来解决这个问题?
(31:47)Inna具体介绍整个模型的组成与构造以及输入输出工作流是什么样的
(33:55)如何设置强化学习的奖赏机智,除了同理心之外,一个高质量的回复还需要考虑别的什么因素?
(36:23)机器学习应该被归到人机互动领域下吗?人学习和机器学习有什么关系?
(43:12)被训练的机器给我们一个新的视角来审视所谓的人类中心主义
(46:53)我们聊到石黑一雄在写完《克拉拉与太阳》后的采访——AI会有创造力吗?但也许我们更需要弄明白的问题是创造力到底是什么?
(53:46)回到paper本身,Inna的系统表现怎么样?怎么去测量系统是否成功?
(58:30)现在的系统是否对所有群族的人都公平呢?
(01:01:41)现在这套系统可以被拓展到中文环境吗?
(01:04:41)大家抒发本次聊天的感受。
【相关资料】
Inna 的 paper:arxiv.org
《克拉拉与太阳》— 石黑一雄:book.douban.com