如果您还没有阅读,请阅读。最后唤起了强烈的情感。对我而言,我相对专业地从事AI,文本生成和意义问题这一事实使他们更加恼火-因此我有理由相信我可以轻松识别机器生成的文本...
是的,是的,我买了。文章“可能是自比特币以来,OpenAI的GPT-3可能是最伟大的”之类的文章,但我没有看到它,尽管事实上,我通常是专业地做,并且知道机器中使用的基本技术生成文本。
在我的第一次轻微震动消失后,我想分享一些注意事项。
这不是机器文本,而是人为处理的文本
也许对文本的第一反应是否认,不愿意接受该文本是由机器制作的。我的大脑开始疯狂地寻找适合的论点。总的来说,我本人认为它们比较弱,但是我仍然想引用它们:
- 尚不知道有多少百分比的文本以及作者是如何编辑的。有一些文本示例似乎是由机器制作的,但是由人纠正的-例如,曾经有一个关于AI制作的电影/书本的故事。细节总是含糊不清-如果您阅读了评论,总是会以AI的精神说出故事的开头,然后一群作家将其定稿。我一直将结果的质量归因于这样一个事实,即作家在定稿时只是带了一些自己的感觉,因为在抽象绘画中,人们怀着强烈的愿望可以找到一些东西。也许这种说法在这里行不通,因为根据作者的保证,他只纠正了文本的格式。
- 这是翻译。显然,翻译人员在翻译时会在文本中添加自己的含义和连贯性。此外,还有诸如“您得到服务了吗?”之类的短语。可以归因于翻译质量低下或西方风格的文字呈现方式的特殊性。顺便说一句,我还将文章中提到的屏幕截图不足归因于翻译问题。
- 这是人类对材料的采样。作者本人说,他不是第一次得到此结果,而是经过几次网络运行后才得到的。我本人已经对GPT-2进行了几次实验,并且还需要多次发射才能获得足够有意义的东西。毕竟,机器只会生成一组符号,只有一个人才能评估它是否有意义。您无法完全“倒出”整个GPT-3与互联网的连接,几乎以无限的速度阻塞它,这让我感到高兴。
但是,我也愿意承认这些论点相当微弱,并且该机器现在确实可以创建类似于人类的相对较长的新闻文本。
我把茶放在一边,心想:“这是什么意思?我可以从这个故事中学到什么?我现在至少可以就区分好文章与坏文章或无意义文章的能力提出一些建议吗?”
声誉研究所和事实检查
回到阅读过程中引起的情绪,我记得这篇文章的片段,之后我开始“相信”正在发生的事情,是对比特币论坛上实验的描述。文章的开头并没有打扰我-它致力于创建GPT-3的事实,而且我已经习惯了这样的事实,因为这些事实可以从任何地方借用,因此并未对作者或他对主题的理解发表任何意见。
但是实验的描述很有趣。实际上,它创建了文章的“内容”-发布规则,论坛上其他人的反应...
...因此,我们知道没有实验。
这使我想到了有趣的想法。我很久以前写过关于基于信任增长的业务周期建模的文章...最重要的是,增长只有在各方履行义务的情况下才会发生-或者,更简单地说,如果我告诉您“我将在一周内以X的价格向您发货该产品”,您就相信我,我会做到的。一切都完全基于信任-如果您不信任我,否则我会欺骗您,我们当然可以尝试通过法院解决此案,但这会带来HELLO费用。想象一下,如果每次在商店购买酸奶都伴随着严重的诉讼可能性,那会是什么样子……
在我看来,这就是现代世界的一个严重问题。从某种意义上说,我们几乎没有与文字和文字有关的声誉机构,这意味着我们根本不知道我们可以信任谁。
想象一下,蜂窝运营商的代表给您打电话。或银行。为您提供新颖,独特,优惠的报价。您会相信这对您有好处吗?
媒体可能会意外地放入“错误的”照片。他们可以单方面考虑情况。在首页上发布挑衅性文章,并在底部添加小题词“这是作者的专栏。作者的意见可能与编辑委员会的意见不一致。”他们可以用“科学家们已经发现……”一词来指代库库沃市一位不知名的世界研究所教授。他们将一无所获。至少,他们会抱怨缺乏事实检查,并且可能在几个月后您根本找不到的角落里发表反驳。
即使是“有能力”的人的存在也无济于事。也许,我最记得的是Theranos的故事(在哈布雷(Habré)上),它保证了一场近乎医学的革命,并组建了令人印象深刻的董事会(该公司的董事会包括著名的人物,例如前美国国务卿亨利·基辛格和乔治·舒尔茨)。在每个人看来,这样的人都不会错-但实际上,他们也依靠口头保证,而实际上技术却行不通。即使您在那里投资了7亿美元,也不要以为您可以信任某事。
不幸的是,关键是现在我们不能再相信某人的意见了。声誉花费很少,并且很高兴以金钱换来。实际上,我们的家人和亲人仍然是唯一的良好信任空间-幸运的是,利用个人信任的网络营销理念(Oriflame等)已经或多或少地从我们的生活中消失了。
但是回到文章……我为自己得出了两个结论:
文字和对话的流畅度
我将生成的文本及其生成器集合在一起。但是我对讨论生成的文本和伪造品将如何影响社会不是很感兴趣-尽管这个话题的报酬很高。对我来说,生成的文本的每个示例都是一个问题:“我们能够将人类思维的哪一部分形式化?” 而且“什么仍然无法解释,仍然是一个人的特权?”
由于GPT-3和现代神经网络是在文本上而不是在文本中包含的含义上训练的,它们由于N-grams或Markov网络而成为文本生成的遥远后代,这大概是在Yandex。Abstracts中使用的。如果您查看生成的文本的基本原理和示例,则可以引入一些重要规则:
- . , . (.) 4-7 , GPT-3, , , . , – , , .
- . , , , . - , «, » « Apple, , ». , . !
- . « , , » « , » .
另外,我想单独谈谈与AI的对话。尤其是,任何老师都知道,根据学生提供的摘要,关于他的知识不能说什么。但是,如果您与他交谈5-10分钟,那么就很容易理解他是否在“摸索”。
在我关于聊天机器人的文章中,我提到了AI的主要问题是考虑到对话的上下文和对对话者的理解。... 很难想象一个AI对特定短语的反应很好-但是看起来像一个人,虽然对所有事情都听得很少,但是却不了解其本质。在学生中,也有-对关键短语做出反应。如果您不涉及复杂的主题,不评估个人知识和理解,您可能会觉得对话者是知识分子,知道他在说什么,尽管实际上他只是在某处重复他所听到的真相。
人显然不是由他所说的决定。一个人的事实是他可以根据自己的信念行事。他可以分析自己的经历或感知他人的经历。
他并非专门从事对话,对自己的言论不承担任何责任。