首页 > 灵异恐怖 > 大白话聊透人工智能 > AI和自动化的区别:为啥说AI可能有威胁,自动化却很“听话”?

AI和自动化的区别:为啥说AI可能有威胁,自动化却很“听话”?(2/2)

目录

这种“不确定性”,就是AI可能带来威胁的根源。不是说AI会像电影里那样“造反”,而是它的决策可能会出现人类没预料到的后果。比如以前有个AI招聘工具,企业用它来筛选简历,结果AI因为学习了过去的招聘数据(过去招聘的大多是男性),就自动把女性简历筛掉了,这就是AI的决策出现了“偏见”,而且这种偏见是设计它的人一开始没预料到的。再比如AI控制的自动驾驶汽车,如果遇到“一边是行人,一边是护栏”的紧急情况,它会怎么选?人类可能会根据现场情况做出判断,但AI的决策是基于算法,这个算法的优先级是“保护行人”还是“保护司机”?如果算法设定有问题,就可能出现危险的结果。

所以说,AI更像是一个“有自己想法的合伙人”,它能帮人类解决很多复杂的问题,甚至比人类做得更好,但它的“想法”有时候会超出人类的控制,带来不确定的风险。这和自动化那种“听话的工具人”完全不同——自动化不会有自己的想法,AI却可能有,而且这个想法还可能是人类猜不到的。

四、马斯克为啥和openAI分道扬镳?核心矛盾就藏在AI的“不确定性”里

聊完了AI和自动化的区别,咱们再说说一个大家特别关心的话题:马斯克为啥会和openAI分道扬镳?其实这事儿和咱们前面聊的AI“不确定性”有很大关系,简单说就是:马斯克担心AI的“不确定性”会带来风险,想让AI更“安全”;但openAI后来的发展方向,在马斯克看来“不够谨慎”,所以两人就走不到一起了。

先给大家补个背景:openAI是2015年成立的,马斯克是创始人之一。当时成立openAI的初衷特别好,就是“让AI造福人类,避免AI带来的风险”。马斯克一直对AI的风险很警惕,他曾经公开说过“AI可能是人类文明最大的威胁”,不是说AI会毁灭人类,而是担心AI的“不确定性”会失控——比如AI被用来做坏事,或者AI自己的决策出现偏差,给人类带来麻烦。所以他一开始支持openAI,就是想让AI在“安全”的框架下发展,比如给AI设定“不能伤害人类”的底线,让AI的决策始终在人类的控制范围内。

但后来openAI的发展方向变了。最明显的就是2019年,openAI从“非盈利组织”改成了“盈利性公司”,还和微软合作,获得了微软的巨额投资。马斯克觉得,openAI变成盈利公司后,可能会为了赚钱,加快AI的发展速度,而忽略了AI的安全问题。比如为了推出更强大的AI产品,可能会减少对AI风险的测试,让AI在还没完全“可控”的情况下就投入使用,这就增加了AI“不确定性”带来的风险。

还有一个矛盾点,就是AI的“透明度”。马斯克希望AI的决策过程是“透明”的,比如AI做出一个决策,人类能知道它是怎么思考的、为什么这么做,这样一旦出现问题,人类能及时纠正。但openAI后来推出的AI产品,比如chatGpt,它的决策过程是“黑箱”式的——人类不知道它是怎么得出答案的,只能看到结果。马斯克觉得这种“黑箱”AI特别危险,因为如果AI的决策出现错误,人类都不知道问题出在哪儿,更没法解决,这就违背了他一开始“避免AI风险”的初衷。

所以在2018年,马斯克就退出了openAI的董事会,后来慢慢和openAI分道扬镳。他不是反对AI发展,而是反对“不顾安全的AI发展”。从这个事儿就能看出来,连马斯克这样的科技大佬,都对AI的“不确定性”充满顾虑,这也从侧面说明,AI和自动化不一样——自动化不用考虑“安全风险”,因为它永远在人类的控制范围内;但AI必须考虑,因为它的“思考能力”和“不确定性”,可能会带来人类没预料到的后果。

五、总结:别把AI和自动化混为一谈,搞懂区别才能更好地用它们

看到这儿,相信大家已经搞懂AI和自动化的区别了。咱们再总结一下,用三句话把核心点说透:

第一,自动化是“听话的执行者”:人类给它设定好固定流程,它就重复执行,没有自主思考能力,结果是确定的,不会带来风险,比如洗衣机、自动门、工厂机械臂。

第二,AI是“会思考的决策者”:它通过神经网络和机器学习模仿人类思考,能根据实际情况随机应变,结果是不确定的,可能比人类更聪明,但也可能带来风险,比如语音助手、AI导航、chatGpt。

第三,马斯克和openAI分道扬镳,本质是对AI“不确定性”的态度不同:马斯克想优先保证AI安全,避免风险;而openAI后来的发展,在他看来可能牺牲了部分安全,追求更快的发展和盈利。

搞懂这个区别,对咱们普通人也很有用。比如你买家电的时候,就知道“自动洗衣机”是自动化设备,不会有什么复杂功能,买的时候看它的固定程序好不好用就行;而“AI洗衣机”(比如能根据衣服材质自动调整洗涤模式的)是AI设备,虽然更智能,但你得了解它的决策逻辑,比如它是怎么判断衣服材质的,避免出现洗坏衣服的情况。

再比如你用AI工具的时候,比如AI写文案、AI做设计,别把AI的结果当成“绝对正确”的——因为AI的决策是不确定的,可能会出现错误或者偏见,你得自己再检查一遍,根据自己的需求调整。而用自动化工具,比如自动记账软件,你就不用太担心,因为它只会按你设定的规则记账,结果是固定的,不会出错。

最后咱们再回到开头的话题:“AI可能威胁人类,自动化不会”。这句话不是说AI一定会威胁人类,而是提醒我们,AI和自动化不一样,它有自己的“思考能力”,所以我们在发展和使用AI的时候,要多一份谨慎,比如给AI设定安全底线、让AI的决策过程更透明,这样才能让AI真正造福人类,而不是带来风险。

自动化就像咱们家里的“老黄牛”,默默干活,听话又安全;AI就像一个“聪明的年轻人”,能干很多复杂的活儿,但也需要我们好好引导,让它走在正确的路上。搞懂它们的区别,才能更好地利用它们,让它们成为我们生活和工作中的好帮手。

目录
返回顶部