让 AI 与人类价值观对齐一直都是 AI 领域的一大重要且热门的研究课题,甚至很可能是 OpenAI 高层分裂的一大重要原因 ——CEO 萨姆・奥特曼似乎更倾向于更快实现 AI 商业化,而以伊尔亚・苏茨克维(Ilya Sutskever)为代表的一些研究者则更倾向于先保证 AI 安全。
但人类真的能让 AI 与自己对齐吗?如果AI和人类的目标并不一致,会导致怎样的后果?在这期节目中,尤瓦尔·赫拉利重点探讨了他对这一问题的思考以及可能的解法,欢迎收听。
让 AI 与人类价值观对齐一直都是 AI 领域的一大重要且热门的研究课题,甚至很可能是 OpenAI 高层分裂的一大重要原因 ——CEO 萨姆・奥特曼似乎更倾向于更快实现 AI 商业化,而以伊尔亚・苏茨克维(Ilya Sutskever)为代表的一些研究者则更倾向于先保证 AI 安全。
但人类真的能让 AI 与自己对齐吗?如果AI和人类的目标并不一致,会导致怎样的后果?在这期节目中,尤瓦尔·赫拉利重点探讨了他对这一问题的思考以及可能的解法,欢迎收听。