爱情,死亡和机器人:通过开发人员的视角观看阿西莫夫的故事





为了纪念程序员节,我们决定放松一下,重新阅读艾萨克·阿西莫夫(Isaac Asimov)最喜欢的故事。然后一个发现等待着我们:事实证明,半个多世纪前的科幻小说作家以足够的准确度描述了现代发展的许多现实。您问这怎么可能?让我们一起弄清楚。 



在著名的科幻小说家的许多故事中,有关“喻”公司的系列S. Robots”及其员工。有几则故事讲述了测试人员鲍威尔(Powell)和多诺万(Donovan)的日常生活-一种机器人测试人员,另一些故事-涉及了主要的机器人心理学家卡尔文博士。迄今为止,他们所面对的问题范围广泛,许多当代同事都很熟悉。



这些常见问题之一是在任务中对工作的陈述不正确。阿兹莫夫(Azimov)不止一次提到这个话题,这并不奇怪-他的机器人比现代机器更智能,更“人性化”,并且与他们一起工作的人很容易忘记机器人的想法有所不同。结果,如故事“圆舞”中所发生的那样,粗心地解决问题可能会变成灾难



在测试人员看来,一切都开始得很好。为了在水星上整理一个废弃的基地,只需要一千克硒即可固定光电池。将会有电力,并且有了电力-基座的冷却,没有电力,汞将无法生存。赛琳娜(Selena)到处都是湖泊,整个湖水都满满了……只有送往最近的机器人发疯了,而且转圈了,比那更糟-它是醉酒的ir妄,尽管机器人不喝酒。在有可能被油炸的户外旅行中,英雄们发现机器人在前往湖的途中偶然发现了危险的状况。但是有直接命令,怎么回事?



-我说...等等...我说:'速度,我们需要硒。您会在那里找到他。去得到它。” 就这样。我还要说什么?

-您不是说这很重要,紧急吗?

- 做什么的?这很简单。


这种“简单性”导致机器人程序陷入两难境地:“不重要”任务的优先级低于自我保护的意识(《第三定律》规定避免损坏)。结果,机器人只能专注于选择,履行命令或生存,而潜在的测试人员则不得不采取冒险行动来纠正错误-转向优先考虑的第一定律。简而言之,将自己置于危险之中,并迫使机器人推迟其他任务并急于拯救所有者。经过这样的体验,测试人员会更加审慎地制定职权范围-一切都像发条一样:



-我把他送到另一个硒湖-这次命令是不惜一切代价获取硒。他花了四十二分三秒把它拿来-我定时了。


在水星之后,对英雄们来说,新任务似乎并不那么危险(在发生“逻辑”故事的行星际站上,它要凉爽得多,只有“零下273度”),但是他们将面临一个开发者只能梦dream以求的问题。噩梦。至少还没有程序告诉其创建者这种不完美的人无法编写它。



但是,Cutie的机器人是为能量转换器提供服务的新开发产品,它并不相信人们会参与其中。那么,真的,这些弱小的生物如何创造出比自己更完美的东西?这是不合逻辑的。他有一个更合理的版本:



-主人首先创造了人类-最简单的物种,最容易生产。逐渐地,他用机器人代替了它们。这是向前迈出的一步。最后,他创造了我来代替其余的人。从现在开始,我为上帝服务!


英雄们正在试图说服机器人,呼吁书本和事实(如他们所想)一样,证明地球的存在。即使在Cutie面前组装新的机器人也行不通-他们没有被说服。可能是由于缺乏关于其起源和缝合到机器人正电子大脑中的目标的假设。这种架构错误很容易解释-开发人员几乎没有想到机器人会怀疑人们的观点。但是新产品中的缺陷并未在前几代产品中发挥作用,导致在机器的大脑中创建了另一个假设链: 



“我不相信。”鲍威尔悲哀地答应。-这是一个推理机器人,该死!他只相信逻辑,这才是重点...-

什么?

-严格的逻辑推理可以证明一切-取决于接受哪​​些初始假设。我们有他们,Cutie有她的。


但是,尽管机器人通过其他变量来感知其任务,但仍可以充分发挥其功能。他这样做不是因为人们命令他,而是因为主的旨意。



人们面临着一个经典的难题:如果可行,是否值得修复?因此,英雄们在反思时得出了结论-不值得:



– , - . , .

– ?

– ! , ?

– ?

– , …

– !


关于测试人员的第三个故事“捉住兔子”很好地展示了产品在发布之前未经压力测试时会发生什么。故事描述了戴夫(Dave)机器人矿工的现场试验,该矿工采用了一种新设计-复合设计(一个机器人指挥官控制着另外六个机器人,如手-手指)。但是一旦机器人无人看管,它就会停止工作。此外,他开始与整个团队一起前进-这对矿工来说是非常可疑的活动。 



测试人员的问题最好通过引用故事本身来描述:



– . – ! – . – : . : «. . » , . : . : , «. . » . : , , .


在失去一份好工作的威胁下,测试人员有能力做很多事情-一个事实。故事的英雄们走了过去,并拒绝了许多验证选项-从现场进行单元测试(可以拆开并分别进行测试,但只有10天了,尚不知道这是否会带来任何好处)到特殊的测试环境(该环境是,但在遥远的地球上,重10吨)。还剩啥?模拟出现错误的条件,并寻找原因。 las,这是许多现代测试人员的共同点。没错,他们更幸运-与故事中的英雄不同,今天的专家至少不必故意与他们一起炸毁地雷。但是在一块石头的瓦砾下,人们思考的效率更高了,并且开发人员还没有采用这种技术是一件好事。



操纵事故不仅导致错误,而且甚至以极端的方式(通过炸毁机器人的“手指”之一)帮助猜测错误的原因,从而减轻了负担并消除了问题:



- 我正是这个意思。在六个通道上同时发送命令!在正常情况下,一个或多个“手指”可以进行简单的工作,不需要密切监视。好吧,就像我们通常的步行动作一样。在极端情况下,必须立即并同时将所有六个行动都付诸行动。在这里有些放弃。其余的很简单。对他的主动性的任何降低,例如一个人的外表,都会使他自成一体。我摧毁了其中一个机器人,戴夫只需要指挥五个机器人,主动权就减少了,他变得正常了!


但是,不仅测试人员(“测试人员”)承担了阿兹莫夫故事中的艰巨任务。在故事“机器人如何迷路”中,首席机器人心理学家苏珊·卡尔文(Susan Calvin)不必寻找故障,而是寻找整个机器人。不,他并没有消失的踪影-他躲在其他同类动物中,并假装是其中之一。在63个机器人中,只有62个说实话,一个在撒谎,这是一个严重的错误。



可以快速找到失败的原因:客户对机器人程序进行了更改。不是在某处,而是在关键部分-制定第一部法律。新的机器人不再有保护人类的义务(这样它就不会爬进科学家的伽马射线并且不会恶化)。但是,就像现实生活中经常发生的情况一样,这种不一致的变化是在没有领先专家的知识的情况下进行的,充满了可怕的后果。在这种情况下,干扰违反了先前明确的法律逻辑,并且曾经调试过的系统变得不稳定。因此,情感秩序“走开,别让自己露面,所以我再也看不到你了”,这给了机器人一个漏洞。

我们必须开发一系列测试以证明遵守第一定律,并根据机器人程序更改的另一个错误建立陷阱(一种普通机器没有的优越感):



– . , -, . , . -10 . , . - , -2 , . , . , . , , , , , -10 , . - , , … .


英雄被迫在故事“风险”中寻找错误。带有超级驱动器的船需要进行验证,由于某种原因,该验证在测试过程中没有跳跃。对于人类来说,这样的跳跃是危险的,因此这艘船是由机器人驾驶的。现在,您应该派人到船上查找故障原因。



这个故事提出了几个编程问题。首先,测试-自动化(在这种情况下-由机器人执行)或手动(科学家)。乍一看,机器人似乎是一个更合适的选择-机器比人类专家更快,更可靠。但是机器人心理学家坚持要进行人工检查。她随后阐明了自己的立场,如下所示:



–  , , . : . , , . . . , , .



,  , . , . , . , , , , ? « » – , . , , .


在某种程度上,这些原则在今天仍然适用-尽管自动化测试的使用越来越广泛并且具有许多优势,但是在某些情况下,手动测试仍然有意义,并且由于它们的特殊性,您可以识别在机器帮助下很难发现的问题。在这个故事中,机器人无法为发现错误做好准备,因为人们不了解船上究竟会发生什么,并且根本不会注意到任何可能的问题。但是,一个人可以根据自己的见解并依靠自己的结论来将自己定位在现场。



其次,这个故事再次提出了正确职权范围的问题。正是在这个原因中,错误的根源在于-机器人规定了启动引擎的算法,而没有考虑它与人的区别。结果,他遵循了一个错误制定的命令,使它过大了-打破了触发器:



–  , . , «. . » . , . ! , , . . : , .

–  …

–  , , . , . , … 


在阿兹莫夫和其他作家中,有许多类似的故事,看起来有些过时,但在许多方面都预见了未来的事件。遗憾的是,我们仍然没有这么发达的机器人,问题和最后期限总是伴随着我们,这位伟大的科幻小说家正确地指出了这一点。



All Articles