E3. AI: 友还是敌?探索担忧与放心 - 人工智能的现实与幻想揭秘科技

E3. AI: 友还是敌?探索担忧与放心 - 人工智能的现实与幻想

14分钟 ·
播放数145
·
评论数0

OpenAI发布新的图像生成工具Sora之后,再一次在全球激起了很多人对AI的担心。在twitter上当天有人评论说“gg Pixar”,然后Elon Musk跟帖说“gg humans”.  gg在英语里是good game的首字母缩写,他是一种非常礼貌的方式来表达“游戏或者比赛结束了,同时对对手的体育精神表示敬仰和尊重;gg有时候也是一种讽刺或者挖苦的方式,来表达对比赛结果的沮丧或受挫。无论钢铁侠Elon Musk想表达的是哪一种意思,或者两者皆有,都足以表明他对Sora进展的关注。

OpenAI关于Sora的产品页面也大篇幅提到了“Safety”,主要指对内容的担心,OpenAI用到了“misinformation, hateful content, and bias”,就是“错误信息,仇恨或恶毒内容,以及有偏见的内容“。大模型几乎是用全网内容来训练的,所以用起来才给人一种什么都懂的很厉害的感觉。但正如OpenAI在Sora的产品介绍页说到的,网上的内容存在”错误、误导及偏见”,用这样的内容训练出来的大模型,其输出的内容难免会存在同样的问题,英语里有句谚语叫“gabage in, gabage out“,这句话最早就起源于计算机界,用来形容计算机系统或算法的输出结果取决于输入数据的质量。如果输入的数据是垃圾(garbage),那么输出的结果也将是垃圾。这个谚语强调了数据的重要性,无论多么复杂的计算机系统或算法,如果输入的数据质量不好或有误,那么输出的结果也会是不准确或无效的。我想这也就是为什么OpenAI在”Safety”,也就是安全性上的担心,主要提了内容的“错误、误导和偏见“。

AI是否能取代人类的工作,和某个人是否能取代另外一个人的工作,是一个道理。一个人如果要取代另外一个人的工作,这个人需要确实能比另外一个人把工作做的更好、更快、或者薪水更低所以能节约成本;在机器和人类对比上,机器还有另外两个人类无论如何无法比拟的优势:首先机器通常不需要休息;另外机器尤其擅长反复一直做重复的工作、不停的做重复的工作而不知疲倦不出错,人类就不行,再厉害的操作员连续作业也可能会因为疲劳、厌倦等原因而出错。AI本质上也就是机器,对那些AI能够比人做的更好、未来能更低成本的职业,确实是有取代的条件了。但目前大模型还在不断训练中,训练成本高昂,还需要有商业模式(如何挣钱)才能广泛推广。

如果不想被其他人取代的话,就要有自己不可或缺的价值,就要比其他人做的更好。回想一下Sora生成的那48支视频,时尚女性走在东京街头虽美,但有了Sora这样强大的工具,每个人都可以制作出如此精美的视频;无人机视角拍摄的海浪冲击美国加州Big Surr的悬崖虽壮观,但每个人都可以无需飞到加州、就可以立刻制作出如此震撼的视频。反倒是在那两艘在波涛汹涌的热咖啡里上下翻腾的海盗船,给我留下最深刻的印象。Sora视频大模型再厉害,目前也是要靠人类来输入prompt文本、根据这个具体的prompt文本生成相应的视频,所以输入的prompt的不同,就会生成不同的视频,创意不同、能够写出来的prompt不同,最后生成的视频也会截然不同,创意的价值尤为重要。