2023年6月6日,我与播客《不合时宜》的主播王磬、孟常,以及我们的共同好友、理论物理学家暨软件工程师赵智沉,一起聊了聊人工智能及若干相关哲学问题。本次聊天的删节版发表于“小红书”,这里备份的是完整版。
E.19 人工智能与哲学 AI and Philosophy (2023.6.6)
110分钟 ·
4190
·37
小秋儿
2023.7.11
13
1:05:34 “如果我们不把对社会正义的追求囊括到我们对人生意义的理解中去,那我们这种人生意义的理解是非常贫瘠的。如果我们真的要关心公平正义的问题的话,那我们首先要关心AI对普通人日常实打实的冲击”
越向书:起立鼓掌👏🏻
46:22 我覺得ai的出現最大的問題就不在於ai是不是有意識什麼人之為人這些形而上的問題,甚至這些是非常非常次要的問題。在這個經濟效率統治世界的情況下,效率的提高會很多底層的人連被當作人的資格都沒有,公平的問題才是那個最最重要的問題
1:05:15 感觉这里对AI的理解还停留在原始的装在服务器里硅基芯片组。到了这种程度还需要人去维护有点蒸汽朋克需要烧煤般的想象。就拿现有的技术说,自动矿山自动工厂做出太阳能板原则上都可以获取能量,更不用说到上传意识这种的技术进步时代,很多科幻对此都有探讨。不过这种讨论确实更加实际,相比于哲学探讨更着眼于当下,对剥削的警惕之类应该是更为要紧,只是似乎和科幻中生命命运之类的哲学讨论不是一个问题
自动矿山确实不需要人亲自下井去挖矿,但很有可能需要(更多?)人做看不见的后端维护,或者转移到整个物流链的其它环节——当然,究竟怎么去理解这种“可能”、有没有可能想象/实现对这种“可能”的超越,这个仍然要回到基本的哲学观的争论上。你可以看出我是不太同意许多科幻设定背后的哲学观的,表面上天马行空实际上根基不牢;当然我暂时也没有好的理由说服这类设定的支持者,所以也只是把我自己比较支持的哲学设定大致勾勒出来,回头慢慢再做补足论述的工作
哇很开心老师的亲自回复哈。关于这个问题我觉得有两个层面:一个是认为在智力决策上AI可以做到和人类一样但是在执行上依然需要人,就好比有脑没有手,最终还需要人去执行;另一个是说在智能上AI就做不到像人类一样,所以类似后端维护的琐碎工作还必然需要人的参与。我猜测您的观点可能更偏向后一种?前者感觉更技术性,后者更接近纯哲学问题:硅基生命有没有可以达到像人类一样的智能(这里应该并不是一维的好坏标准)?当然“硅基”只是一个符号,当前硅基数字计算有很多局限我自己也很感兴趣不同计算体系的研究,这里讨论的应该是任何可人造的智能(AI)。这样的话似乎没有神学的东西加入就很难相信自然进化出的人类智能不可能被复制,不恰当的例子就好比动物力气再大也比不过挖掘机。我理解到老师的意思是人类智能是一种复调而不是单一cost function,如果这是区分人类智能的定义的话很多结论我都很同意,只是我个人感觉当前AI的发展已经在超越这个层面了,这个特点并不一定和AI互斥。当然这些只是我当前的认识和想法,感觉没有一种宗教执念很难相信智能原则上不可artificial,所以类似后端维护这些人类能做的事还不太能想到为何AI原则上做不到。非常感激如果老师能进一步分享一下指导见解,希望能学习到可能被我忽略的一些原则上的问题,以及老师对于此类哲学观的思考。共5条回复
小板凳学习ing
找木遥和林老师对谈N小时!