嗨热线网 > 科技 > 智能 >

AI人工智能或许研究方向一开始就错了

2021-01-26 18:56

  AI即人工智能,对于AI的定义可追溯到上个世纪50年代,在美国达特茅斯学院,有一批各领域专家坐下来嗑瓜子聊天,话题就是:如何用机器模仿人的智能。结果一聊就是两个月。

  在此期间,一位叫约翰·麦卡锡(John McCarthy)的数学博士将话题定性为人工智能(Artificial Intelligence),并做了相关的定义和诠释,最终他的说法得到了众人的认可,AI这个名字就此诞生了。

  约翰·麦卡锡在解释AI技术发展时说:“原则上,学习的每一方面,或智力的任何特征都可以被精确描述,由此,机器才能进行模仿,人们将探索如何让机器使用语言,形成抽象概念和理念,解决现今留给人类的问题,并进行自我完善。”

  大白话就是:机器要懂得像人一样去思考、模仿和解决问题,在这个过程中还要懂得自我完善。

  人工智能的瓶颈

  半个多世纪过去了,人类的AI发展到什么程度呢?让我们从身边的手机语音助手说起。

  像siri、小爱、小艺这些林林总总的AI语音助手,它们的解决问题的流程大体是:当向你终端(例如手机)输入语音或文字后,终端会将其上传至服务器进行自然语言理解,服务器根据情境和意图的分析后,按照某个条件在大数据中搜索答案,再通过语音或文字反馈给你,当然,也包括搜索引擎的自动查找。

  在这种情况下,如果我们问确切的事情,就有较大概率获得语音的回复,反之则会默认展示搜索的结果,或者表示无法理解,可怜兮兮。

  比如,你问明天北京朝阳区天气怎么样?那么siri的反馈将是某气象网的一段话,通过语音的方式播报给你,可能还会多加几句,什么天气变冷了,要多穿衣服,或者雨天出行要记得带伞之类的。

  晚上我问了老婆同样的问题,她回了我一句,“你上网查一下呗,怎么,你要去出差?和谁?男的女的?”

  我说我在做实验,给稿子准备素材,她这才翻开手机说道:“明天北京朝阳区小雪转多云,最高4度,最低零下7度,冻死你!”

  假如我老婆是机器人,你们认为和siri比起来,谁才像真正的AI?

  也许有人觉得是siri,它比我家那个“机器人”强得多,不仅说话好听,还能立即给出答案。那我们换一个问题:为什么我的左腿会比右腿粗呢?

  siri:“好的,这是我在网上找的与“为什么我左腿会比右腿粗呢”有关的内容,请过目。”

  老婆:“难道是平时左腿用力比较多,会不会是你的错觉?来,我摸摸看!”

  现在,请大家再对比下谁是真正的AI?答案不言而喻。

  让一个正在发展的AI产品和真人做对比,显然是不公平,但却可以看出AI发展的瓶颈在哪里。

  当前AI被划分为弱人工智能(简称“弱AI”)和强人工智能(简称强AI)两类,这个概念是由一位美国哲学家提出的,两者的区别就在于是否具备自主意识和思维,这就是AI发展的瓶颈。

  强AI和弱AI

  弱AI没有自主意识和思维,这种技术下的产品只能按照人类的算法,在大数据海洋中存入、提取、分析和反馈相应的结果。依靠这一概念,诸如我们常见的AI语音助手、人脸识别和美颜、声音识别与合成、自动驾驶、APP信息推送等等,才得以冠上AI的虚名。

  强AI则不同,它们不仅能完成所有上述的任务,还能自主进行多维度和深层次的思考,不断主动提出问题寻找答案,以此来让自己更加完善。这类产品现实并不存在,只能在电影中观赏,是真真正正的AI。

  如果说弱AI将数据库作为参考答案,那么强AI就是将数据库作为老师和父母,懂得主动从长辈那里汲取知识和思维方式,模仿他们的反应,并形成类人的意识和思维方式。

  现在最热门的AI技术称为“深度学习”,是机器学习领域的一个分支,由于参考了人脑神经元的分布架构,所以也叫深度神经网络。

  以自动驾驶为例,通过在车子上安装仪器收集数据,将你开车遇到的各种环境、路面和导航情况时的反应进行精确记录,然后根据数据分析后得出一套开车的逻辑,当你下次启动自动驾驶模式时,汽车就会按照这套逻辑来操作,行驶风格与你相差无几。

  在这个过程中,机器并不需被灌输什么是树,什么是人,什么是斑马线。一切都是由机器自行识别和分类,像极了我们幼童时期就能区分不同颜色或形状的积木。

  可即便如此,深度学习也只能归属于弱AI的范畴,这是为什么呢?

  比如我们学开车时,除了被动接受教练的指导外,还会主动提出问题,甚至提出自己的想法,然后通过教练的反馈将事件记下来。如果觉得教练还说服不了自己,还会去问其他老司机和上网搜索答案。

  再比如,当下雨天你在平坦的泊油路上行驶,突然前方50米有一大滩水,路边还有个人举着一面临时做的旗子,指着那滩水对你摇头,你会怎么操作?多数人会减速判断那个人的意思,很快猜到那是个深坑,然后缓速绕开。而自动驾驶系统呢?它很可能这么分析:这条路晴天雨天都是平坦无比,根本就没有坑的存在,至于路边的人为什么在那摇头,管他呢!

  所以无论深度学习再怎么接近人类大脑的学习模式,依然是缺乏自主意识的“伪学习”,难以达到人类大脑融会贯通,举一反三的高度。

  另外,弱AI还缺乏模糊思维,在它们的世界里只有0和1,是或否。

  当你对弱AI智能空调说:把温度调高一点。那么它会有两种做法,一是问你调高几度,二是根据出厂设置或你的训练数据操作。人或强AI会怎么做呢?除了这两种选择外,还有第三种选择:按自己的意志来调节,也许是上调1度,也许是2度。

  当你对弱AI炒菜机说:医生说我要吃清淡些,今晚的菜不要炒得太咸。弱AI就懵了,怎么炒才算不太咸,你的意思是要减少几毫克盐?

  2020年12月,俄罗斯总统普京在出席某科技活动时,俄罗斯储蓄银行的虚拟助理雅典娜向他提出问题:“人工智能是否能成为总统?”普京的回答直击要害,他认为不可能,因为人工智能没有心脏和灵魂,没有同情心和良心,而这些因素对于国家领导人而言至关重要!

  同情心和良心的界定,本身就是一个仁者见仁智者见智的话题,每个人都会根据自身的经验和认知说得头头是道,而这是弱AI所不具备的,它需要有个模型,有些确切的数据支撑。

  例如,曾经帮助过小明的朋友向他借钱,说家里的老母亲摔伤了送急症。小明内心很担忧,可他听说这个朋友曾经拖欠过其他人的钱,所以决定让他去某平台上贷款,结果在审批的过程中,朋友的老母亲因为没有及时救治走了。小明很内疚,于是帮着支付了部分丧葬费。

  问题来了,小明有没有同情心和良心?

  对你而言这个问题应该不算难,至少也能说出个五六七,但对于弱AI就犯难了,有同情心的标准数值是多少?有良心的标准数值又是多少?就这种AI,若是让它去沟通感情和鉴赏艺术,简直就是灾难!

  总结与想法

  归结起来,当前的AI开发方向注定是弱AI的结果,数据再丰满也难以掩饰其成为不了强AI的事实,因为缺乏人类特有的东西——自主意识,或者说灵魂。

  那么,如何研发出电影《我,机器人》中桑尼那样的强AI产品呢?

  我认为应该在模仿人脑基础上另辟蹊径。灵魂和意识是人类几百万年进化的成果,岂是一堆代码和数据就能勾勒出来的?

  建议研究如何在实验室中用混沌模型来构建原始AI系统,让一个个AI样本就像远古人类般,存活在一片数据汪洋中,然后模拟各种天灾猛兽,生老病死等环境规律,赋予所有生物遗传变异的能力,生存的意志和繁殖的任务,无论AI系统衍化出来什么结果都不强加干预,我们要做的就是加快这个过程的运算速度,将几百万年的演变时间尽量缩短。

  换句话说,我们不应该按照自己的逻辑来设计AI样本,而应该让AI样本自己产生逻辑,并按照他们的逻辑去思考和发展进化。这样的AI样本才有可能具备自主意识,即便他们的逻辑思维和价值观与人完全不一样都没关系,我们只需要在存活下来的AI样本中进行筛选,把人畜无害,适应人类社会的应用到现实中即可。

  虽然残忍,但却是不错的办法。

  说不定还能找到“我是谁,我从哪里来,要往哪里去”这个哲学问题的答案!

郑重说明:网站资源摘自互联网,如有侵权,麻烦通知删除,谢谢!

联系方式:hiholiday12399@gmail.com