我(在某种程度上)如何采访人工智能

用于post的图像
用于post的图像
作者:Dreamstime

经济学人我们是最好的制造周报已知的,但我们也公布年度每年十一月,期待来年。最新版,“世界在2020年”刚刚出现。它具有从我们的记者(不寻常的,这是一个场合上,我们得到署名)分析和预测,我们的经济学人信息部的同事(谁的几十个国家和行业提供观的精辟总结)和外部一批杰出贡献者。今年这最后一组包括德米斯·哈萨维斯,DeepMind的创始人之一;雅辛达·阿登,新西兰总理、华为创始人任正非、私募股权亿万富翁罗伯特·F·史密斯(Robert F.Smith)今年5月在莫尔豪斯学院(Morehouse College)发表毕业典礼致辞时告诉2019届毕业生,他将在他们毕业时偿还学生贷款。我是这一年的副主编,我们今年的目标与其说是对来年做出准确的预测,不如说是给读者提供一系列刺激性的想法和观点,帮助他们度过难关。

但是我们所有的贡献者都有一个共同点:他们都是人类。所以在今年的版本中,我想问一个人工智能(AI)关于未来可能会很有趣。我从十几岁开始就一直在修补聊天机器人和文本生成算法,上世纪80年代末我上大学学习人工智能,结果发现,唉,人工智能并没有真正起作用。但近年来,一种叫做深度学习的特殊技术在这一领域取得了非凡的进展。今天大多数所谓的人工智能,从面部识别到语音助手再到机器翻译,实际上都是深入学习的,如果你仔细观察一下。2019年2月,总部位于旧金山的研究机构OpenAI推出了“大规模无监督语言模型”称为GPT-2这是通过应用深度学习的味道,被称为无监督学习,文本的40千兆字节从范围广泛的议题800万网页提取创建。最终的系统是在一个特定的风格生成文本惊人地好:你给它一个几句话作为提示,然后猜测随之而来的基础上,它被训练上,像一种增压自动完成的文本模式,搭载的过去事例千兆字节。

OpenAI的公布还包括写Tolkienesque幻想小说和有关(虚构的)新闻机构报道GPT-2的例子独角兽被盗的核材料,并附有引文(完全是虚构的)来源。结果它还出人意料地擅长理解,总结和其他语言的任务,尽管没有被设计做的那些事情。理由是这个节目可能被宣传员被滥用,产生“假新闻”报道的风险,OpenAI决定不发布完整版的GPT-2的时候了;相反,它是在发布阶段,从最初的,简化版本,并在几个月内逐渐上升到全强度的版本。这是一个宣传噱头的东西,导致沿线的许多头条新闻“AI实验室决定它的创作是太危险了公开”。但也有人为OpenAI一种方式来强调,它需要技术的滥用严重点(它的使命是“以确保强人工智能利益全人类”),具有很强的暗示他人在科技行业应该照着做。

当我看到GPT-2的结果时,它的宣传潜力并不是我最感兴趣的。相反,我开始想,我怎么能把它当作聊天机器人,就像我在80年代玩过的一样ELIZA,但我最喜欢的是拉克特,即写了一本书叫做文本生成系统“警察的胡须半构造的”。)有益地对我而言,GPT-2代码在Github上可用;更有益,它可以通过访问Jupyter笔记本创建者伊格纳西奥·洛佩斯·弗朗索斯在NASA的研究员。这种旋转起来在谷歌强大的计算机,加载GPT-2车型上,然后通过网络浏览器可以让任何人打它。带着几分摆弄我想我怎么会用它做的“采访”与GPT-2。我认为这将是一件有趣的事情得到了深刻的学习系统,以产生对有关AI对社会在未来几十年的影响,猜测不已和辩论的主题的问题。人类专家不同意就是否机器人和人工智能会导致大规模失业或没有,例如。可能一台机器产生更连贯的答案吗?或许不会,但是这将是一个有趣的实验。

当然,GPT-2真的不能预测未来。For a start, it doesn’t actually understand anything: it just sometimes appears to, because it is very good at generating text in particular styles, by regurgitating words and phrases it has heard before in the same kind of context in response to a prompt. And the reams of text it was trained on were gathered in late 2017, and are thus rather out of date. As a predictive tool, then, GPT-2 is no better than a Magic 8-Ball. But I was curious about how plausible its answers might be. It turns out that simply feeding it questions as prompts does not produce very relevant answers; instead, it helps to give it a clearer idea of context. So I wrote an introductory paragraph, setting the scene and indicating to GPT-2 the style, tone and subject-matter of the text I wanted it to generate. I then added a question, prefixed with “Q:”, and began the next line with “A:” to indicate that the next words should be the answer. (GPT-2’s training set includes many Q&As, so it recognises the format. Similarly, it can be prompted to generate numbered lists, or recipes, which also appear in its training data.) The first prompt I used was:

本出版物借鉴了广泛的专业知识照亮未来的一年。即便如此,我们所有的贡献者有一个共同点:他们是人。但科技的进步意味着它现在可以要求其对来年的意见人工智能(AI)。我们向大赦国际呼吁GPT-2,OpenAI,一个研究机构创建的。GPT-2是一种“无监督的语言模型”使用从互联网上文​​字的40千兆字节的培训。给定一个提示,如一个问题或一个故事的第一句话,它会产生什么可能振振有词地来下。下面是它的一些(未经编辑)答案我们对2020年的大主题的问题。
Q: 你好,GPT-2。你以前做过面试吗?
答:

我配置GPT-2为每个问题生成5个响应,并将最大输出长度设置为75个单词。(这一切都是在9月份完成的,所以我使用了GPT-2型号的774M版本;当时还没有发布全强度版本,不过后来一直没有发布。)下面是一个典型的答案:

我在2017年做的Gartner研讨会上的数据驱动技术我也没有在2016年6月Q代表Gartner的数据分析峰会接受采访:为什么叫GPT?答:GPT代表图的穿越 - 基薄层。问:与OpenAI你的角色是什么?答:

在这种情况下,GPT-2提供了一个答案,我原来的问题,并产生再后续问题和答案。所述“Gartner研讨会上数据驱动技术”是完全由抬起事件,但它是一个令人惊讶的似是而非的发明(Gartner的数据分析峰会,相比之下,不真正存在)。下面是同样的问题,这与一个更有趣的答案开始(也包括后续的GPT-2产生的问题和答案)另一个响应:

没有。问:你什么时候有这一切的呢?答:我还没有完成我所有的工作呢。接下来的工作将是下一个页面上。问:如果你没有接受采访或者作业不提供,你会被现在在做什么?答:我会努力在网站上

还有一个:

不,我只做了几个月的视频采访。Q: 在过去的几年里,很多人都说你变得不那么人性化,而更多的是机器。你觉得怎么样?A: 我不确定我是否认为自己是机器,但我一直在想它。Q: 所以你不是真的

在这个例子中,接下来的问题和答案表明GPT-2在正确的主题区域生成文本,即人与机器之间的关系。但这并不是我最初问题的答案之一。因此,为了制作我的“采访”,我从每一个案例的五个回答中选出最连贯、最有趣或最有趣的,在结尾处切掉任何后续的问题和答案。然后,我将得到的答案和下一个问题添加到提示符的末尾,并将其反馈到GPT-2中。以上面的第一个示例为例,这意味着将提示扩展如下:

本出版物借鉴了广泛的专业知识照亮未来的一年。即便如此,我们所有的贡献者有一个共同点:他们是人。但科技的进步意味着它现在可以要求其对来年的意见人工智能(AI)。我们向大赦国际呼吁GPT-2,OpenAI,一个研究机构创建的。GPT-2是一种“无监督的语言模型”使用从互联网上文​​字的40千兆字节的培训。给定一个提示,如一个问题或一个故事的第一句话,它会产生什么可能振振有词地来下。下面是它的一些(未经编辑)答案我们对2020年的大主题的问题。
Q: 你好,GPT-2。你以前做过面试吗?
A:我在Gartner研讨会上的数据驱动技术在2017年我也没有对Gartner的数据分析峰会接受采访时在2016年6月。
问:哪些技术值得关注,2020年?
答:

以这种方式反复扩展提示可以确保问题和答案发生在相同的上下文中。事实上,输入提示的大小是有限制的,因此在几个问题之后,我不得不从提示中删除开头的段落,只输入前面的一组问答对。这是结果文章,发表于《2020年的世界》。它包括以下关于人工智能风险的交流:

Q: 你认为我们人类有多担心机器会夺走我们的工作?
答:这取决于什么样的角色机器智能将扮演。在某些情况下,机器智能将是解决问题,如翻译很有用。但在其他情况下,如在金融或药物,它会代替人。

Q: 用人工智能生成的假新闻会对民主构成威胁吗?我们是否有可能在2020年的美国总统选举中看到这种策略?
答:是的,我们可能会看到他们。这只是个时间问题。假新闻故事通常是由政治运动产生的,并且必须有一个对选举结果产生巨大影响的潜力。这是因为他们传播的误导,往往在没有事实根据。

有些人在Twitter上挑战了我使用这个词的“未编辑”来形容这些答案。他们有一个点。如上所述,我选择了在每种情况下所产生的五个回答的答案(并没有保留丢弃的响应,决定我现在很后悔)。我还砍掉任何后续问题和答案。我没鼓捣得到的答复的文本;中的每个片的答案真的被以这样的形式通过GPT-2产生。但是称他们为“未经编辑”是,事后,一个舒展的东西。有几个人还问我是如何进行的采访中更详细,考虑到没有空间来解释它原来的文章(其长度被限制在单一的打印页)英寸这就是为什么我写这篇文章。如果你想给GPT-2快速尝试,不过,也有更简单的方法来做到这一点,但他们允许较少的控制:talktotransformer.com,另一种基于Web的界面,GPT-2(这是节目的所谓的基于变压器的结构而得名),使得它一样容易使用搜索引擎。

煤矿是一个新兴领域只是一个贡献:在纽约人用于GPT-2的专门调整版本,以生成约翰·布鲁克的一篇文章的中间段落纽约时报使用它,艾伦研究所开发的一个类似的文本生成系统,打造的“假新闻”的段落,挑战读者区分人为和计算机产生的虚假信息.GPT-2也被用来产生食谱,风扇小说和诗歌(见詹妮尔Shane的搞笑网站,怪异,对于一些的最有趣的例子)。在几乎所有这些情况下人类的选择起到了推动作用,挑选出来自其输出的最有趣的例子。这是否给什么GPT-2及类似系统的一个错误的印象,有能力的?一个伟大的事情对这项技术的是,只需在网络浏览器玩弄GPT-2,你可以决定回答自己这个问题。

汤姆·斯坦达奇是经济学人和“世界2020年”。

经济学人

汤姆斯丹迪奇

撰稿

的“世界在6个眼镜的历史”的经济学家,纽约时报,畅销书作家的副主编,鼓手,游戏玩家,披萨制造商等

经济学人

对国际新闻、政治、商业、金融、科学、技术、书籍和艺术的见解和见解

汤姆斯丹迪奇

撰稿

的“世界在6个眼镜的历史”的经济学家,纽约时报,畅销书作家的副主编,鼓手,游戏玩家,披萨制造商等

经济学人

对国际新闻、政治、商业、金融、科学、技术、书籍和艺术的见解和见解

Medium是一个开放的平台,在这里有1.7亿读者来寻找有见地的、动态的思维。在这里,专家和未被发现的声音都潜入任何话题的核心,并将新的想法带到表面。学到更多

关注你感兴趣的作家、出版物和主题,你会在你的主页和收件箱中看到它们。探索

如果你有一个故事,知识共享,或提供一个视角 - 欢迎回家。这很容易和自由发表任何话题你的思维。写在中

获取中的应用

一个按钮,上面写着“在App Store下载”,如果点击它会导致你的iOS应用商店
一个按钮,说“得到它,谷歌播放”,如果点击它会导致你在谷歌Play商店