首页 > 灵异恐怖 > 大白话聊透人工智能 > 知识表示:从人脑到电脑的“知识翻译术”

知识表示:从人脑到电脑的“知识翻译术”(2/2)

目录

举个例子:用面向对象表示法表示“手机”。

-对象名:手机

-属性(是什么):品牌=华为、颜色=黑色、屏幕尺寸=6.7英寸、电量=100%

-方法(能做什么):打电话(输入号码→拨出)、拍照(点击快门→保存照片)、上网(连接wiFi→打开浏览器)

电脑里的“手机对象”不仅有属性信息,还知道能执行哪些操作。如果要让手机“拍照”,直接调用“拍照方法”就行。

实际用处:比如手机App的开发,每个功能模块都是一个“对象”。比如微信里的“聊天窗口”对象,属性是“聊天对象、聊天记录”,方法是“发送消息、接收消息、撤回消息”,这样开发起来条理特别清晰。

优点:模块化强,能重复使用;缺点:设计“对象”需要花很多心思,要是属性或方法漏了,后续改起来很麻烦。

6.神经网络表示法:把知识“变成数字向量”,像给知识“编密码”

这种方法是现在最火的,尤其在深度学习里。它把每个概念(比如“猫”“狗”)变成一串数字(比如“猫=[0.2,0.5,-0.3]”“狗=[0.1,0.4,-0.2]”),这些数字叫“向量”。数字越像,说明概念越接近——比如“猫”和“狗”的向量很像,因为都是动物;“猫”和“桌子”的向量差别很大。

举个例子:用神经网络表示法处理“词语”。

电脑会把“苹果”变成一个向量,比如“[0.3,0.6,-0.1,0.4]”。这个向量不是乱编的,是电脑通过分析几百万条文本,发现“苹果”常和“水果”“吃”“甜”一起出现,所以向量里的数字会和“水果”的向量很接近。

当你问“苹果和香蕉有什么共同点”,电脑会对比两者的向量,发现它们的数字很像,再结合其他知识,得出“都是水果,都能吃”的结论。

实际用处:比如chatGpt这类大模型,就是用这种方法表示知识。它能理解“国王”和“女王”的关系,就像“男人”和“女人”的关系,因为它们的向量差值很相似。还有语音识别,电脑把“你好”的声音变成向量,和存储的“你好”向量对比,就能识别出你说的话。

优点:能处理复杂的模糊知识,比如“开心”和“高兴”的细微差别;缺点:数字向量太抽象,人类看不懂,没法解释“电脑为啥这么想”——比如电脑说“苹果和香蕉很像”,你问“为啥”,它说不出理由,只能说“向量很像”。

四、追历史:知识表示是怎么从“简单符号”进化到“智能向量”的?

知识表示不是一开始就这么高级的,它跟着AI的发展走了快100年,就像从“手写书信”进化到“微信聊天”,一步步变得更高效、更智能。咱们按时间线梳理,看看它的进化脉络。

1.萌芽期(1940s-1960s):用“规则”表示知识,像写说明书

这个阶段的AI刚起步,科学家们觉得“知识就是规则”,所以知识表示也围绕“规则”展开。

1943年,逻辑学家波斯特第一次提出“产生式规则”,就是“如果A就b”的形式,这是最早的知识表示方法之一。当时的电脑很落后,只能处理简单的规则,比如“如果输入1+1,就输出2”。

到了1950年代,图灵提出“图灵测试”,大家开始想让电脑“像人一样思考”,但那时候的知识表示太简单,比如用逻辑符号表示“苏格拉底是人,人都会死,所以苏格拉底会死”,虽然精确,但只能处理这种简单推理,没法应对复杂知识。

2.发展期(1970s-1980s):给知识“加结构”,像建房子

这个阶段的科学家发现,光有规则不够,知识得有“结构”,就像房子要有梁有柱。于是出现了“框架表示法”“语义网络表示法”这些带结构的方法。

1972年,纽厄尔和西蒙改进了“产生式规则”,让它能处理“不确定的知识”,比如“如果发烧,有80%的可能是感冒”,这比之前的“非黑即白”规则灵活多了。

1975年,明斯基提出“框架表示法”,把知识分成“框架-槽-侧面”的结构,就像给知识建了标准化的“房子”,比如“动物框架”里有“食性”“栖息地”这些“房间(槽)”,每个房间里还有“细节(侧面)”,比如“食性”里有“食肉”“食草”。

同一时期,夏克从框架发展出“脚本表示法”,专门表示“事件的顺序”,比如“去餐厅吃饭”的脚本:进门→找座位→点餐→吃饭→付钱→离开。电脑用这个脚本,就能理解“小明在餐厅点了汉堡”之后,接下来会做“吃饭”。

这个阶段的AI能做简单的“专家系统”,比如医疗诊断系统、下棋程序,但还是局限在“固定领域”,换个领域就得重新写规则。

3.成熟期(1990s-2010s):用“网络”连知识,像织渔网

这个阶段的互联网兴起,数据变多了,科学家们发现知识不是孤立的,得“连起来”才有用,于是“语义网”“知识图谱”成了热点。

1998年,“语义网”概念被提出,核心是“让电脑能看懂网页上的知识”。比如网页上写“李白是诗人”,以前电脑只知道是文字,语义网会给它加标签“<人物>李白<\/人物>,<身份>诗人<\/身份>”,这样电脑就能“读”懂网页知识。

2012年,谷歌提出“知识图谱”,用语义网络的方法把海量知识连起来,形成一张巨大的“知识网”。比如你搜“北京”,知识图谱里不仅有“北京是中国首都”,还有“北京的人口”“北京的景点”“北京的历史”,甚至能关联到“北京冬奥会”“北京烤鸭”,电脑顺着这张网能给你推荐一堆相关知识。

这个阶段的AI能做智能搜索、智能推荐,比如淘宝根据你的浏览记录推荐商品,就是靠知识图谱里的“用户-商品-兴趣”关系。

4.爆发期(2020s至今):用“AI”学知识,像教小孩

现在的阶段,知识表示不用“人手动写规则”了,而是让AI自己“学”知识,核心是“神经网络表示法”。

大模型(比如Gpt、文心一言)通过学习互联网上的万亿条文本,自动把词语、句子变成向量,还能学会“关系”。比如它从没见过“张三喜欢吃苹果”这句话,但见过“李四喜欢吃香蕉”“王五喜欢吃橘子”,就能通过向量分析,知道“喜欢吃”是人和水果之间的关系。

2024年之后,知识表示开始往“多模态”发展,就是把文字、图片、声音的知识都用向量表示。比如电脑能把“猫”的文字、猫的图片、“喵”的叫声变成相似的向量,这样你发一张猫的图片,它就能知道“这是猫,会叫喵,是动物”。

这个阶段的AI越来越“智能”,能写文章、做设计、回答复杂问题,但也带来了新问题:AI学的知识太多太杂,有时候会“胡说八道”(也就是“幻觉”),因为它只是靠向量匹配,不是真的理解知识。

五、看应用:知识表示离我们不远,生活里到处都是

别以为知识表示是“实验室里的东西”,其实咱们每天都在接触。从手机里的App到路上的智能设备,背后都有它的影子。咱们挑几个常见的场景,看看它是怎么发挥作用的。

1.智能搜索:让“搜答案”变成“给结果”

以前搜东西,比如“李白的诗”,会出来一堆网页,得自己翻;现在用百度、谷歌,直接就能看到“李白的代表作:《静夜思》《望庐山瀑布》”,还能关联到“创作背景”“赏析”,这就是知识表示的功劳。

搜索引擎里藏着一张巨大的知识图谱,用语义网络表示法把“李白”“诗”“朝代”这些知识连起来。当你输入问题,电脑先“理解”你的需求(比如“李白的诗”其实是要“李白的代表作及相关信息”),然后在知识图谱里找相关的节点和关系,最后把结果整理成你能看懂的形式。

甚至现在的搜索能处理“模糊问题”,比如你问“《静夜思》的作者是哪个朝代的,他还有啥有名的诗”,电脑能通过知识图谱里的“《静夜思》-作者-李白-朝代-唐朝-作品-《望庐山瀑布》”的关系链,一次性给你答案。

2.智能推荐:“猜你喜欢”不是瞎猜,是靠知识关联

你在抖音刷到喜欢的视频,下次会推更多类似的;在淘宝买了一件衬衫,会推裤子、领带——这不是“玄学”,是知识表示在背后发力。

推荐系统里用了“面向对象表示法”和“知识图谱”:

-把你当成一个“用户对象”,属性包括“年龄、性别、浏览记录、购买记录”;

-把商品当成“商品对象”,属性包括“类型、风格、价格、关联商品”;

-用知识图谱把“用户-商品-兴趣”连起来,比如“用户A买了衬衫→衬衫属于男装→男装关联裤子→给用户A推裤子”。

比如你在b站看了《流浪地球2》的解说,系统的知识图谱里有“《流浪地球2》-类型-科幻片-关联-《三体》《星际穿越》”,所以会给你推其他科幻片的解说,这就是“知识关联”带来的精准推荐。

3.智能客服:24小时不睡觉,靠“规则库”接电话

你打银行、运营商的客服电话,经常会先听到“请说您的需求,比如查账单、办业务”,这背后就是“产生式表示法”的功劳。

智能客服的系统里存着几千条“如果…就…”的规则:

-如果用户说“查账单”,就回复“请提供您的手机号,我为您查询”;

-如果用户说“办宽带”,就回复“请问您在哪个城市?我们有100、200两种套餐”;

-如果用户说的话匹配不到规则,就转人工客服。

现在的智能客服更高级了,结合了“神经网络表示法”,能理解“同义词”,比如你说“我的话费还有多少”“查一下余额”“话费剩多少了”,它都能匹配到“查账单”的规则,不用你严格按照它给的关键词说。

4.医疗诊断:当“AI助手”帮医生看片子

在医院里,AI已经能帮医生看ct片、诊断常见病,这背后是“框架表示法”和“知识图谱”的结合。

医疗AI的系统里存着“疾病框架”:

-比如“肺炎框架”的槽包括“症状(发烧、咳嗽、痰中带血)、ct表现(肺部有阴影)、病因(细菌感染)、治疗方法(抗生素)”;

-当输入患者的ct片和症状,AI会把这些信息和“肺炎框架”的槽值对比,如果匹配度超过90%,就提示“可能是肺炎”,再把结果给医生参考。

还有的医疗AI用知识图谱把“疾病-症状-药物”连起来,比如患者对“青霉素”过敏,AI在推荐药物时会自动排除含青霉素的药,避免用药风险。

5.自动驾驶:路上的“AI司机”,靠“知识”躲障碍

自动驾驶汽车能识别红绿灯、避开行人,本质是把“驾驶知识”用“神经网络表示法”和“语义网络”存起来。

汽车的传感器会把路上的信息(红绿灯、行人、其他车)变成向量,然后和系统里的知识对比:

-看到“红灯”的向量,就匹配“停车”的规则;

-看到“行人”的向量,就匹配“减速避让”的规则;

-知识图谱里还有“红绿灯-路口-限速30k\/h”的关系,所以到路口时会自动减速。

现在的自动驾驶还能“学新知识”,比如遇到“施工路段”,以前没见过,但通过向量分析,发现和“障碍”的向量很像,就会自动减速绕行。

六、聊问题:知识表示再牛,也有“搞不定”的事

虽然知识表示已经很先进了,但还不是“万能的”,还有一堆解决不了的难题,这些难题也是科学家们正在攻关的方向。咱们挑最关键的3个,说说它们的“痛点”。

1.知识太“杂”:没法把“所有知识”都表示清楚

世界上的知识太多了,有“明确的知识”(比如数学公式、历史事件),还有“模糊的知识”(比如“这件衣服挺好看”“他很开心”),更有“隐性的知识”(比如骑自行车的技巧、做饭的手感)。

现在的知识表示能处理“明确知识”,但对“模糊知识”和“隐性知识”几乎没辙:

-比如“好看”“开心”这种主观感受,没法用精确的规则或向量表示,电脑不知道“多好看算挺好看”;

-比如骑自行车的“平衡感”,是靠身体感知的隐性知识,没法用符号或向量写出来,所以现在的AI还学不会骑自行车。

2.知识会“变”:老知识过时,新知识跟不上

知识不是一成不变的,比如“太阳系有9大行星”后来变成了“8大行星”(冥王星被除名),“新冠病毒的治疗方法”也在不断更新。但电脑的知识表示是“静态”的,更新起来很麻烦。

比如知识图谱里存着“太阳系有9大行星”,当冥王星被除名后,得手动修改所有和“9大行星”相关的节点和关系;如果是大模型,就得重新用新数据训练,花几个月时间和几百万美元,成本特别高。

现在科学家们在研究“动态知识表示”,让AI能自己“更新知识”,比如看到新闻说“冥王星不是行星了”,就自动修改自己的知识,但目前还没完全实现。

3.知识难“解释”:AI说“对”,但说不出“为啥对”

现在的大模型(比如Gpt-4)经常能给出正确答案,但你问它“怎么想出来的”,它说不清楚——这就是“可解释性差”的问题,根源在“神经网络表示法”。

因为大模型的知识是“向量”,是一堆数字,人类看不懂。比如它说“《静夜思》的作者是李白”,你问“为啥”,它只能重复“因为《静夜思》的作者是李白”,没法像人一样说“因为课本里学过,历史资料里也有记载”。

这个问题在关键领域特别致命,比如医疗AI说“患者得了癌症”,医生得知道“AI是根据哪些症状、哪些检查结果判断的”,如果AI说不清楚,医生根本不敢用。

七、总结:知识表示的本质,是“人与机器的沟通桥梁”

聊了这么多,最后咱们回归本质:知识表示到底是啥?

其实它就是一座“桥梁”——左边是人类的“智慧世界”,有语言、经验、直觉;右边是机器的“数字世界”,有代码、符号、向量。知识表示的任务,就是把左边的东西“翻译”到右边,让机器能帮人干活。

从1943年的“产生式规则”到现在的“大模型向量”,这座桥越建越宽、越建越稳:以前只能过“简单推理”的小自行车,现在能过“复杂决策”的大卡车。但它永远成不了“传送门”,因为机器没法真正“理解”知识,只能“处理”知识。

对咱们普通人来说,不用懂具体的公式和算法,只要知道:那些让生活变方便的智能工具——能精准推荐的淘宝、能快速答疑的搜索、能24小时服务的客服——背后都是知识表示在“默默翻译”。

未来,知识表示会往“更模糊、更动态、更可解释”的方向发展,可能有一天,AI能像人一样理解“开心”的情绪,能自己更新“最新的新闻”,能说清“为啥这么想”。但到那时候,它依然是“工具”,因为真正的智慧,不仅是“处理知识”,更是“创造知识”——这一点,目前还只有人类能做到。

目录
返回顶部