见发生·知未见
业界观点

AutoGPT、BabyAGI虽然火爆,但是很危险

业界观点

腾讯科技讯 自从OpenAI上个月开始向测试人员开放GPT-4 API(应用程序编程接口)以来,一些开发者团队开始尝试实现人工智能模型的代理化(agent-like),试图在尽可能少的人工干预下执行多重任务。这些自制脚本可以根据需要循环、迭代和衍生人工智能模型的新实例。

在这些项目当中,有两个实验性的开源项目在社交媒体上引起外界、特别是疯狂炒作人工智能项目的人的极大关注:由托兰·布鲁斯·理查兹(Toran Bruce Richards)创建的Auto-GPT和由中岛洋平(Yohei Nakajima)创建的BabyAGI。

Auto-GPT和BabyAGI能做些什么?嗯,现在还无法做太多的事情。它们需要大量的人力投入和合作,所以还没有像承诺的那样自主。但它们代表了更复杂的人工智能模型,这些模型在单独工作时可能比单个人工智能模型能力更强。

什么是Auto-GPT?

Auto-GPT是一个开源Python应用程序。该应用程序以GPT-4为基础,允许人工智能“自主”行动,无需用户提示每个动作。用户可以为Auto-GPT制定一个总体目标,并逐步采取行动来实现该目标。这就是“人工智能代理”概念的来源,它们使用互联网并完全独立地在PC上执行操作--无需在每一步都得到提示。

原始GitHub中发布的简单示例是Auto-GPT,其目标是浏览Web以得出“下一个即将到来的事件”(例如复活节)的独特和原始食谱。Chef-GPT,正如它的名字一样,然后开始在网络上搜索解决方案。第二个目标是将食谱作为文件保存在用户的计算机上。

就其本身而言,这听起来可能并不那么创新。但是Auto-GPT代表用户搜索互联网并执行保存文件等操作的能力使这个人工智能远远超出了一个简单的聊天机器人。

理查兹称,自己的脚本是“展示GPT 4语言模型能力的实验性开源应用程序”。该脚本“将大语言模型(LLM)的‘思想’链接在一起,以自主实现操作者设定的任何目标。”基本上,自动GPT从GPT-4获取输出,并通过一个临时的外部存储器将其反馈给自己,以便它可以进一步迭代任务,纠正错误,或提出改进建议。理想情况下,这样的脚本可以充当人工智能助手,可以独自执行任何数字任务。

为测试这些说法,测试人员在Windows机器上本地运行了Auto-GPT(一个Python脚本)。当启动它时,它会询问人工智能代理的名字,角色的描述,以及试图完成的五个目标的列表。在设置它时,您需要提供一个OpenAI API密钥和一个谷歌搜索API密钥。运行时,Auto-GPT会请求允许执行它默认生成的每一步。如果想冒险,它还包括一个全自动模式。

如果任务是做类似“购买一双复古款Air Jordans”这样的事情,Auto-GPT会制定一个多步骤计划并尝试执行。例如,它可能会搜索卖鞋的人,然后寻找符合用户标准的一双特定的鞋。但那是它停止的时候,因为目前它实际上不能购买任何东西。如果与适当的购物应用程序接口连接在一起,这是可能的。

如果想亲自体验一下Auto-GPT,有人创建了一个基于网络的版本,名为AgentGPT,与Auto-GPT的功能类似。理查兹对他的Auto-GPT目标非常开放:开发一种通用人工智能(AGI)。在人工智能中,“通用智能”通常指的是人工智能系统执行广泛任务和解决问题的能力,这些任务和问题不是专门编程或训练的。

像一个相当聪明的人一样,具有一般智能的系统应该能够适应新的情况,并从经验中学习,而不是仅仅遵循一套预先定义的规则或模式。这与具有狭义或专门智能(有时称为““狭义人工智能”)的系统形成对比,这些系统旨在执行特定任务或在有限的环境范围内操作。

与此同时,BabyAGI(它的名字来源于致力于人工智能的远大目标)的工作方式与Auto-GPT类似,但处理任务的方式有所不同。

BabyAGI的开发者中岛洋平表示,他是在目睹了3月份的“HustleGPT”挑战赛后受到启发而创作了他的脚本。HustleGPT挑战赛源自一位推特用户的想法:通过给GPT-4 100美元的预算,让它在短时间内用这笔启动资金,赚更多的钱。作为一名人类,这位用户将充当 GPT-4 和物理世界的联络员,去购买GPT-4所需要的任何物品。可以说,这场挑战赛试图利用GPT-4作为一种人工智能联合创始人来自动建立业务。“这让我很好奇,我是否能创造一个完全人工智能的创始人,”中岛洋平说。

创建可及时修复错误的“再生”人工智能程序

为什么Auto-GPT和BabyAGI达不到通用人工智能的标准,主要是由于GPT-4本身的限制。虽然作为文本的转换器和分析器令人印象深刻,但GPT-4仍然感觉局限于狭义范围的解释智能,尽管一些人声称微软已经在该模型中看到了通用人工智能行为的“火花”。事实上,像Auto-GPT这样的工具目前用处有限,这可能是目前大型语言模型局限性的最有力证据。然而,这并不意味着这些限制最终不会被克服。

此外,虚构的问题--当大型语言模型只是编造一些东西时--可能会严重限制这些代理助理的有用性。例如,在一个推特帖子中,有人使用Auto-GPT生成了一份关于生产防水鞋的公司的报告,方法是搜索网络并查看每个公司的产品评论。在这个过程中的任何一步,GPT-4都可能在评论、产品上产生幻觉,甚至整个公司都被纳入其分析。

当被问及BabyAGI的有用应用时,除了格瑞特·斯科特(Garrett Scott)创建的项目“Do everything Machine”之外,中岛洋平拿不出其他实质性的例子。该项目旨在创建一个自动执行的待办事项列表,目前正在开发中。公平地说,BabyAGI项目只有大约一周的历史。“这更像是对一个框架/方法的介绍,最令人兴奋的是人们在这个想法的基础上构建的东西,”他说。

这两个项目中对“兜售”和赚钱的关注可能会让一些人望而却步。过去的一年里,在推特、Instagram、Tiktok和YouTube等平台上,围绕的生成式人工智能,出现了一个由社交媒体网红组成的团体。Mashable将这些人称为“兜售兄弟”,他们通常会兜售往往被夸大的夸张说法,例如使用ChatGPT自动获得收入。随着Auto-GPT的出现,这群人很快就接受了让一个自主的人工智能代理从事商业建设或赚钱的想法。

Auto-GPT似乎也参与了这场炒作。在启动该工具时,它会要求用户命名一个人工智能代理并描述其角色。它给出的例子是“一个旨在自主开发和运营业务的人工智能,其唯一目标是增加你的净资产。”

尽管有这里提到的限制,人们还是继续快速地将Auto-GPT和BabyAGI的代码应用于不同的语言和平台,尽最大努力去实现它,很多人眼里都带着美元符号。“这种利用ChatGPT技术构建自主代理的新方法似乎在整个社区引发了许多新想法,”中岛洋平说。“看到人们在此基础上以不同的方式进行搭建真是令人难以置信,我很高兴有机会支持这些建设者和创始人之间的协作和共享知识。”

在一个人工智能社区的知名人士一直呼吁“暂停”开发强大的人工智能模型以保护人类文明的世界,问题仍然是:像Auto-GPT和BabyAGI这样的自主人工智能代理是否危险?

理查兹和中岛洋平并不是第一个用所谓的“自主”人工智能系统进行实验的人。在GPT-4的安全测试期间,与OpenAI合作的研究人员检查了GPT-4是否可以自主行动来制定和执行目标。他们很可能设计了类似的连锁设置来实现这一点。OpenAI一直努力用人类反馈来调节GPT-4模型,目的是不产生有害的结果。

Lesswrong是一个互联网论坛,以关注人工智能末日的启示录而闻名,其成员目前似乎并不特别关注Auto-GPT,尽管如果表面上担心强大的人工智能模型“逃”到开放的互联网上并造成严重破坏,那么自主人工智能似乎是一种风险。如果GPT-4真的像人们经常宣传的那样有能力,他们可能会更加担心。

当被问及他是否认为像BabyAGI这样的项目可能会有危险时,它的创建者并不担心。中岛洋平说:“如果没有深思熟虑地实施并小心潜在的风险,所有的技术都可能是危险的。BabyAGI是一个框架的介绍。它的功能仅限于生成文本,因此不构成威胁。”

网站建设开发|APP设计开发|小程序建设开发
下一篇:美国电动车补贴正式大缩水!仅10款车符合全额税收抵免条件
上一篇:何小鹏:当了新势力第一也没用,300万辆销售规模只是入场券