
我们今天要谈论的人工智能(AGI ) 项目被认为没有任何强大的AI雄心勃勃。但是,一些科学家认为,计算机将永远无法捕获人类智能的功能。
能够解决任何人类知识问题的计算机思想的支持者和反对者都在捍卫它们的地位,这有许多论点。我们将找出双方都会带来什么争论,并尝试弄清楚AGI现在和将来是否有机会。
本文基于Ragnar Fjelland教授最近发表的文章,“为什么不会创建通用AI”,但我们将关注的不仅仅是弊端。
沉默的知识
由于人类智能是通用的(也就是说,它可以解决几乎所有的智力问题),因此类人AI通常被称为通用人工智能(AGI)。尽管AGI具有重要的人类智能属性,但仍可以将其视为弱小的AI。但是,它与传统的弱AI有所不同,后者仅限于特定的任务或领域。因此,传统的弱AI有时也被称为人工智能(ANI)。
能够以极高的速度使用算法的能力是ANI的特点,但并不能使其更接近自然智能。数学家和物理学家罗杰·彭罗斯(Roger Penrose)在他的著名著作《国王的新思想》中。 1989年出版的《关于计算机,思维和物理定律》,建议人类思维主要是非算法的,因此无法使用诸如图灵机之类的传统计算机进行建模。
在彭罗斯(Penrose)诞生的30年之前,哲学家休伯特·德雷福斯(Hubert Dreyfus)在他的作品《炼金术与人工智能》中表达了类似的想法。他还写了《计算机不能做什么》一书,他在书中指出,人类知识大多是隐性的(非语言的),不能用计算机程序来表达。
1958年,物理学家,化学家和哲学家迈克尔·波拉尼(Michael Polani)首次提出了“个人(或隐性,隐性)知识”的概念。我们在日常生活中使用的大多数知识都是隐性的-我们不知道在完成任务时要遵循哪些规则。例如,当所有动作均自动执行时,波兰尼就提到游泳和骑自行车。
问题在于,许多专业知识仍然沉默寡言。例如,我们许多人都是步行方面的专家,但是如果我们试图精确地描述步行方式,我们将对真实过程进行非常模糊的描述。
AI里程碑

在1980年代,由于发现了神经网络,这些神经网络可以在没有明确外部指令的情况下自行学习,因此Polanyi,Dreyfus和Penrose的论点开始失去力量。
尽管大规模项目(例如,1982年开始的日本“第五代计算机”,并承诺使用大规模并行逻辑编程创建AI)失败了,但从历史上看,只有成功才被记住。到20世纪末最显着的AI进步由IBM专家演示。 1997年,深蓝在一系列比赛中击败了国际象棋冠军加里·卡斯帕罗夫。
IBM超级计算机的创建是为了解决棋盘上的特定问题,并不是所有人都将其视为AI的成功。但是,在2011年,IBM沃森(Watson)在“危险”中战胜了人类! (在俄罗斯,该表演被称为“自家游戏”)。在Deep Blue的背景下,Watson向前迈出了巨大的一步-系统以自然语言理解查询并找到不同知识领域的答案。
似乎专家系统的新时代将很快开始。 IBM计划利用医学中的计算机功能。这个想法浮出水面:如果Watson可以访问所有医学文献,它可以提供比任何医生更好的诊断和治疗。在接下来的几年中,IBM参与了多个医疗项目,但取得了一定的成功。今日公司的努力专注于为日常任务开发AI助手。
当然,不能不说当今AI开发人员的主要成就-AlphaGo系统,该系统与针对AGI的争论的最终瓦解有关。AlphaGo已经证明计算机可以处理默认知识。DeepMind的方法已成功应用于Atari Breakout,Space Invaders和StarCraft,但事实证明该系统缺乏灵活性,无法适应实际环境的变化。由于在不断变化的世界中出现问题,因此迄今为止,深度强化学习在商业上几乎没有发现。
原因和调查

近年来,AI倡导者获得了一个功能强大的新工具-将数学方法应用于大量数据以查找相关性并确定概率。尽管大数据并不能反映出创建强大AI的雄心,但其支持者认为这是不必要的。在Viktor Mayer-Schoenberger和Kenneth Kuke一书中,“大数据:一场将改变我们的生活,工作和思维方式的革命”说,我们可能不需要为人类智能开发计算机-相反,我们可以改变思维方式变得像计算机。
在大数据中,我们使用相关性进行操作,但我们并不总是了解原因在哪里以及结果在哪里。在书中珍珠和麦肯齐为什么?新的因果科学”作者说,要创建真正的AI,计算机必须能够应对因果关系。机器是否可以以某种方式表示因果关系,以便它们能够迅速获得所需的信息,正确回答问题,并且即使三岁的孩子也能轻松做到这一点?

甚至神经网络在这里也有一些缺陷。我们真的不知道为什么系统做出这个决定。几年前,华盛顿大学的一个团队开发了一个程序,该程序经过训练可以区分沙哑和狼。这项任务非常困难,因为您在图中可以看到,动物彼此相似。但是,尽管很复杂,该系统仍能以90%的精度运行。在分析了结果之后,研究小组意识到神经网络之所以运作良好,仅是因为狼的图像大部分是雪。
如果…
历史学家尤瓦尔·哈拉里(Yuval Harari)声称,在7万至3万年前,世界发生了一场认知革命,其标志是能够想象不存在的事物。例如,他列举了在德国Stadel洞穴中发现的最古老的象牙雕像“雄狮”(或“雌狮”)。该人物有一个人体和一个狮子的头。
珀尔(Pearl)和麦肯齐(McKenzie)指的是哈拉里(Harari),并补充说,狮子人的创造是哲学,科学发现和技术创新的先驱。进行此创建的主要前提条件是能够以以下格式提出问题:“如果我做……会怎样?”,并回答它们。
但是,具有因果关系的计算机表现不佳。像30年前一样,包括深度神经网络程序在内的机器学习程序几乎完全以关联模式运行。但这还不够。要回答因果问题,我们必须能够介入世界。
根据拉格纳·费尔兰(Ragnar Fjelland)的说法,问题的根源在于计算机没有现实模型,无法改变周围的现实,也无法以任何方式与其交互。
术语僵局
一些专家认为,不是最明显的问题是,如果不了解“游戏规则”,我们就无法在某个领域取得成功。即使使用术语,仍然存在困难,而且我们不知道确切地称为人工智能是什么。此外,对自然智能的理解远非理想-我们只是不完全了解大脑的工作原理。
例如考虑丘脑,它负责传递感觉和运动信息。古代罗马医师盖伦(Galen)首先描述了大脑的这一部分。 2018年,创建了丘脑图谱:根据组织学,分离出26个丘脑核,然后在MRI上进行鉴定。这是一项伟大的科学成就,但科学家建议,丘脑中有80多个核(确切的数目到目前为止尚未安装)。 FrançoisSchollet(Google的AI研究人员,Keras深度学习库的创建者和TensorFlow机器学习框架的共同开发者)
在《关于智能的度量》中指出,在关于“什么是智能”的全球共识之前,试图将不同的智能系统与人类智能进行比较注定要失败。
没有明确的指标,就不可能记录成就,从而无法准确确定人工智能系统开发的发展方向。甚至臭名昭著的图灵测试也无法挽救生命-我们通过“中国房间”的思想实验知道了这个问题。
存在是智慧的标志
今天,大多数AGI(和强大的AI)的支持者都遵循Yuval Harari的观点。在《 21世纪的21个教训》中,他提到了神经科学和行为经济学,据称这表明我们的决定不是“某些神秘的自由意志”的结果,而是“大脑中数十亿个神经元在计算所有可能概率的结果。在做出决定之前。”
因此,人工智能可以比人类做得更好。例如,作者列举了在满是行人的街道上开车,向陌生人借钱以及进行商业交易的谈判,所有这些都需要具备“正确评估他人情绪和欲望”的能力。理由是:“如果这些情绪和欲望真的不过是生化算法,那么就没有理由计算机无法解密这些算法-它们可以比任何智人做得更好。”
这句话与弗朗西斯·克里克(Francis Crick)在“惊人的假设”中的思想相呼应。“:”一个惊人的假设是,“您”,您的喜悦和悲伤,您的记忆和野心,您的个人身份感和自由感实际上无非是神经细胞和相关物质的大量积累的行为。他们分子。”
还有另一种观点:即使最抽象的理论也基于我们的日常生活。现象学创始人爱德蒙·胡塞尔( Edmund Husserl)的哲学家提到爱因斯坦的相对论,声称它依赖于“米歇尔森实验”及其得到其他研究者的证实。为了进行此类实验,科学家必须能够四处走动,操作仪器并与同事交流。
正如休伯特·德雷福斯(Hubert Dreyfuss)所指出的,我们是生活在物质和社会世界中的身体和社会众生。为了了解另一个人,一个人不需要研究他的大脑的化学性质;相反,一个人需要在这个人的“皮肤”中了解他的生活世界。
为了说明德雷福斯的说法,作家西奥多·罗扎克(Theodore Rozzak)建议进行思想实验。想象一下看精神科医生的工作。他是一个努力工作,经验丰富的人,显然具有很好的实践能力。候诊室里到处都是患有各种情绪和精神疾病的患者:有人处于歇斯底里的边缘,有人被自杀的念头折磨了,有人遭受了幻觉的折磨,有些病人被最严重的噩梦折磨了,有些人对自己的想法感到疯狂。他们会受到伤害他们的人的监视。这位心理医生认真地听取了他们的意见,并尽力提供帮助,但没有取得太大的成功。相反,尽管精神病医生作出了英勇的努力,但患者的病情似乎只会恶化。
现在,罗扎克(Rozzak)要求我们将局势放在更广阔的背景下。精神病医生的办公室位于布痕瓦尔德(Buchenwald)的一栋建筑物中,患者是集中营的囚犯。生化算法不会帮助我们了解患者。真正需要的是更广泛的背景知识。如果我们不知道精神科医生的办公室在集中营里,那么一个例子就没有意义。在纳粹德国,几乎没有人会像囚犯一样。我们无法完全理解与我们自己的经历截然不同的人。但是我们仍然可以理解一些事情,因为我们与其他人存在于同一个世界中。
反过来,计算机存在于它们自己的计算机世界中,这至少部分解释了阻止IBM Watson Health和Alphabet DeepMind解决现实世界中的问题的问题。IBM面临着机器学习与医生工作之间的根本不匹配。DeepMind发现解决Go的问题并没有使他们更接近回答与寻找治愈癌症有关的问题。
结论:计算机走向世界

不仅是AGI的批评家都知道这些问题。世界各地的研究人员正在寻找新的方法,并且在克服障碍方面已经取得了一些成功。
尽管事实上,即使是狗比IBM沃森聪明,根据以人工智能理论家罗杰柄,医学的未来无疑是属于计算机系统。该论文于2020年6月发表,证明了Pharnext的巨大成功:事实上,他们的AI已经找到了一种简单且价格合理的解决方案,可以解决遗传性夏科-玛丽-牙齿疾病的问题。
人工智能已经组装了令人惊叹的三种批准的药物鸡尾酒,以减轻遗传性运动感觉神经病。如果我们考虑使用一种新的“药物”,那一定会令人困惑:第一种成分是用于治疗酒精中毒的药物,第二种成分对阿片样物质受体有作用,用于对抗酒精和阿片类药物的成瘾,第三种成分通常是糖的替代品。
经过数百万的选择之后,AI选择了这样的组合。它的确起作用:在小鼠和人类中进行的实验表明,神经与肌肉之间的连接增加了。重要的是要改善患者的健康状况,并且副作用不明显。
说到世界上存在的问题,值得一提的是最近在慕尼黑工业大学进行了一项雄心勃勃的研究:一个相互关联的水平的机器人被教给感知现实世界并在其中行事。这项研究是欧洲大型项目SELFCEPTION的一部分,该项目结合了机器人技术和认知心理学,以开发出更具洞察力的机器。
研究人员决定为机器人和人工代理提供一般能力,使其能够像人类一样感知自己的身体。主要目标是提高面对不确定性时的互动能力。他们以神经生物学家卡尔·弗里斯顿(Karl Friston)的主动输出理论作为基础,他去年来俄罗斯进行了讲座(对于对此主题感兴趣的人,我们建议您看一下俄语或英文)。
根据该理论,大脑会不断做出预测,将其与来自感官的信息进行核对并进行调整,然后重新开始循环。例如,如果一个人在去往自动扶梯的途中突然发现交通拥堵,他会相应地调整自己的动作。
一种基于弗里斯顿自由能原理的算法(一种预测性脑理论的数学形式化)表示朝着一个共同目标而努力的感知和行动,这是为了减少预测误差。在这种方法中,对于机器来说,这是第一次,感觉数据更好地匹配了内部模型所做的预测。
从长远来看,这项研究将有助于开发具有人类适应性和互动性的AGI。正是这种方法与人工智能的未来息息相关:如果我们将狭窄的服务器中的AI释放到现实世界中,也许有一天我们可以开启机器的自我发现功能。