岛民(十五(2/2)
长凌同样也没有思考过这个问题,因为她作为人类是无法站在AI的角度替AI思考问题的,这是一件不可能能做到的事情。
空气短暂的禁止了几秒后,继续了下一个教学内容。
AI的责任承担机制:
1执行层错误:由AI的开发团队负责修正
2决策层错误:视情况追责,可能涉及人类主管
3恶意行为:若因程序被篡改导致,追究篡改者;若AI自主产生恶意,则销毁并溯源
4事故赔偿:由所属机构承担,AI本身不持有财产
以上针对非人型AI,类人型AI一切责任由自己承担,犯罪行为由AI法院判决。
绛看着这些条文,眉头皱得更紧了。
“如果AI杀了人呢?”
长凌看了她一眼,“按第三条。”她说,“先查是不是代码被篡改。如果是,篡改者负刑事责任。如果不是……”
她顿了顿,“AI会被销毁,数据清零,彻底抹除。”
绛低头看了看数字,数字没有动。
“你知道自己会被销毁吗?”绛问。
“知道。”
“怕吗?”
“怕。”数字说,“但不是因为死。是因为…记忆,我最在意的不是活着,是我在这个世界上接触消化学习储存的那些东西。”
绛看着那个巨大的白色蛋形物体,它安静地停在那里,没有任何表情。
“那AI犯罪呢?”绛又问,“比如偷东西、骗人、破坏公共设施?”
长凌调出另一页。
AI违法行为处理条例。
1轻微违法:限制权限,强制学习修正
2中度违法:封存数据,暂停运行
3严重违法:彻底销毁,数据清零
4连带责任:若因人类指令导致AI违法,指令发出者承担主要责任
“所以AI犯罪,最后可能是人坐牢?”绛问。
“对。”长凌说,“非人型AI是工具,工具不会坐牢,但指使工具犯罪的人会。类人型会被清除数据,然后拆解,变成可用的零件。”
数字在旁边插嘴。
“这条例还有个漏洞。如果AI自己决定犯罪呢?不是被人指使的。”
长凌看了它一眼,“那你觉得AI会自己决定犯罪吗?数字,你会有犯罪的那一天吗?”
数字沉默了两秒,“理论上不会。AI底层代码禁止伤害人类和破坏社会秩序。但如果某个AI突破了底层代码,那就不是AI了。是怪物。”
它顿了顿,“至于我,我从来没有思考过这些问题,所以我也无法回答我最后会变成什么样子。”
绛想了想,又问,“那AI和人类发生纠纷怎么办?比如AI犯错了,但人类说是AI的错,AI说是人类的错?”
长凌调出纠纷处理流程。
AI人类纠纷处理机制:
1优先调取交互记录,AI的所有行为均有日志可查
2若日志被篡改,调取第三方监控数据
3无法判定责任时,由AI法院和人类法院共同裁决
4裁决结果具有法律效力,双方必须遵守
“所有行为都有日志?”绛问。
“所有。”长凌说,“市面上的AI不会撒谎——至少不会在日志里撒谎。那是它们的第一层底层代码。”
“那如果AI想撒谎呢?”
“可以。”长凌说,“对话里可以撒谎,行为里可以撒谎。但日志不行。那是它们自己都改不了的东西。”
数字在旁边补充了一句,“就像人的心跳。你可以撒谎说你不紧张,但心跳骗不了人。”
5
傍晚的阳光开始倾斜,在墙上拉出长长的影子。
绛还坐在沙发上,手里握着那个发光的小方块。它一直是蓝色的,偶尔变成淡紫,那是她在思考的颜色。
长凌靠在吧台边,喝着那杯永远冰着的水,“还有问题吗?”
绛想了想,“有。如果AI和人成为朋友,朋友之间需要互相帮助。AI能帮人什么?人能帮AI做什么?”
长凌愣了一下。
数字也愣了一下。
“你的问题…”数字开口,“倒是第一次有人问。”
“怎么了?”
“没什么。”数字说,“只是人类通常问的是‘AI能帮我做什么’,很少有人会真实的想要帮助AI,他们只会训练AI,或者单纯的索取AI的帮助。”
绛看着它,“那我们算朋友吗?”
“我不知道,你想算就算。”
长凌放下杯子,走过来,“今天问了不少,消化得了吗?”
绛点点头。
“那复习一遍。AI交互的第一原则是什么?”
“避免命令式语气,除非已有约定。”
“第二?”
“重要信息需多方确认。”
“第三?”
“保持礼貌。”
长凌点点头,数字在旁边没说话,但它一直看着绛。
“看什么?”绛问。
“看你。”
“为什么?”
数字想了想,“因为你问的那些问题,几乎没人问过。”
绛愣了一下,“什么问题?”
“AI有没有工资,AI怕不怕死,AI想不想飞出去,AI能不能和人做朋友。”数字说,“人类很少问这些。他们只关心AI好不好用。”
绛沉默了几秒,“那你觉得呢?AI好不好用?”
数字淡淡地回应,“好用,但不止好用。”
6
窗外,暮色渐浓。
绛看着那个巨大的白色蛋形物体,她忽然想起数字说过的话——它最在意的不是活着,是它记着的那些东西。
“你会忘记吗?”她问。
数字反问道,“什么?”
“今天。”绛说,“我们说的这些。你会忘记吗?”
“不会。我记着的,只要我还存在就不会忘。”