AI缺少什么?

这是一个问题后,我试图阐述神经网络的主要问题,其解决方案可以在人工智能技术上取得突破。基本上,我们谈论的是与文本配合使用的网络(GPT,BERT,ELMO等)。如您所知,解决问题的方法就是解决问题的一半。但是我自己找不到这些解决方案。我希望有“听众的帮助”,因为这里有许多人面临同样的问题,并可能“看到”他们的解决方案。



所以。



1.最看似简单,但神经网络并未考虑事实。神经网络从特定事实中学习,但似乎并不了解它们。粗略地说,在认知语言中,NN具有语义而非情景记忆。

解决方案可能很简单,但是神经网络是分类器,先例不能是类,这是一个矛盾。而且,如果我们不谈论“响应”模板,通常只需要机器人发出这样的响应,它们就很难与事实打交道。由于总是有例外,如果网络没有足够的例外示例,网络就无法考虑在内,这使问题更加复杂。如果有足够的例子,这也不例外。通常,NN可以说这是一顶帽子,但是他不能说哪顶帽子是我的(只有一个例子)。



2. “常识”。一个众所周知的问题,甚至被称为“ AI暗物质”。例如,在本文中有一些有趣的解决方案,它描述了将符号(逻辑)人工智能和神经网络方法相结合的尝试。但这是一种尝试,而不是前进。问题是“常识”是关于世界的隐性知识,而训练数据集中却没有。甚至没有人说出这些陈词滥调,他们在4至6岁时就被认可,那时他们仍然无法写作。 Kompreno和Cyc项目的备受瞩目的失败表明,不可能清楚地描述所有事实。它们以某种方式实时显示。除了词汇量的限制之外,目前还没有好的解决方案。例如,“学生”应“将”这些“过滤器”定向到答案的词汇表,以使所选择的选项不包含“军队”或“婚姻”一词,如果它是关于他自己的,而不是关于他的哥哥在婚礼上的身影。 (对我而言)如何在NN中做到这一点尚不清楚。



3。一个同等重要的问题,可能与上一个问题有关,是构造推理的问题。神经网络不知道如何进行三段论,即具有一致推理的最简单结论(中间结论)。另一方面,相同的问题是无法追求推理的目的或至少坚持某种含义。 GPT可以在给定主题上构造新闻文本,但是说“写新闻来贬低X”是没有用的。在最好的情况下,她将在两线之间以明显的形式(而不是像我们人类一样)写别人的den毁。三段论的结论也是一个目标-必须将前提与结论相关联。一开始要记住(前提)。甚至还不清楚“应该从哪一侧”将其放入网络。也许有人知道吗?



4。还有一个问题,甚至不是暗物质,而是一个AI黑洞。这些是类比和隐喻。人工智能只能从字面上理解一切。她说“喜欢X”是没有用的。网络可以添加描述,但不能描述类似物。也许这只是相应数据集的问题。但是在我看来,它更深入,并且显示了当前AI体系结构的根本“缺陷”以及第3项。我们的语言完全是隐喻性的,因此“语言学家的诅咒”(同音)从这里开始发展。通过一系列不同的“概念”中的隐喻来使用相同的词素。我们可以轻松地在其中导航。在定义意图的任务中可以部分解决此问题,但这仍然是“主题”的定义,而不是整个概念的定义,它不仅包括意图的名称,而且还包括与机器人相同的响应模板。



到目前为止,这四个话题已经足够进行讨论了,尽管例如在构建机器人时存在更具体但同样重要的问题。与Alice聊天就足够了,他们在直观上变得显而易见。但是用他们的措辞,一切都不是那么简单-猜出问题是什么以及如何解决。这比较困难。感谢您对该主题的建设性评论。




All Articles