《纽约时报》:让ChatG...

《纽约时报》:让ChatGPT给出满意答复并不难

112475

(新加坡 2023年8月3日) 《纽约时报》最近发文提醒公众,人工智能聊天机器人的使用存在诸多误区,使用不当将导致适得其反。

据这篇题为 《We’re Using A.I. Chatbots Wrong. Here’s How to Direct Them》 的报道,由于人工智能有捏造事实的倾向(hallucinations),如果使用者不对其加以正确引导,便会收获失败经历。

报道称,聊天机器人会根据从互联网上获取的信息猜测该说什么,但这样难免出错。 在过去两个月里,记者测试了数十种人工智能产品后得出结论,大多数人都在以一种错误方式使用这项技术。

我们目前的使用方法大都是,如果碰到问题就向聊天机器人提问,然后希望它们给出正确答案。在这种情况下,机器的功能并没有被释放出来。但是,如果引导人工智能使用来自可信来源的信息,例如可信的网站和研究论文,它就能以更准确的方式完成任务。

图片来源:华尔街日报

“如果你给它们正确的信息,它们可以用这些信息做有趣的事情…… 但如果只靠它们自己,你得到的结果中有70%是不准确的,” 报道援引人工智能初创公司Context的创始人萨姆·休特梅克(Sam Heutmaker)对于人工智能的看法。

事实上,通过建议聊天机器人处理特定数据这样一个简单的调整,它们便会给出质量更高的建议。 譬如,将聊天机器人引导到特定的高质量来源,如知名媒体和学术出版物的网站,将大大有助于减少错误信息的产生和传播。

报道称,像ChatGPT和Bard这样的聊天机器人可以编写理论上看起来不错,但实际上行不通的食谱。譬如,在《纽约时报》美食版去年11月进行的一项实验中,一个早期的人工智能模型为感恩节菜单创建了食谱,其中包括硬邦邦的火鸡和干巴巴的蛋糕。

然而,倘若使用者尝试ChatGPT插件时,情况便会发生变化。这些插件本质上是与聊天机器人协同工作的第三方应用程序。当然,只有使用最新版聊天机器人ChatGPT4的用户才能使用插件,并在设置菜单中将它们激活。

还是以食谱为例,如果在ChatGPT的插件菜单上选择Tasty Recipes,机器便会从媒体网站BuzzFeed旗下的Tasty网站获取数据。 当记者让聊天机器人根据网站上的食谱制定出一份包括海鲜、猪肉糜和蔬菜配菜在内的饮食计划,机器人提出了一个给人带来启发的膳食计划,包括香茅猪肉炒饭、烤豆腐塔可饼和冰箱里翻出来的任意一种意大利面。

我们再来看ChatGPT在旅行计划上的表现。

最近,时报的一名旅行作家请ChatGPT为她安排在米兰的旅行路线,她根据建议去了米兰市中心的一个地方,但因为当天是意大利的节假日,那里空无一人,此外还有其他一些混乱的地方。

其实,就像做饮食计划一样,如果让ChatGPT把我最喜欢的一些旅游网站的建议纳入其中,比如Vox旗下的Thrillist,几分钟之内,聊天机器人就会生成一份更靠谱行程。记者根据这份新的行程,居然来到了一个提供葡萄酒和奶酪搭配的农场,并且顺利坐火车抵达了适合徒步的热门景点,最重要的是省了不少时间。

除了食谱和旅游,记者还在为一篇关于热门电子游戏系列的文章做研究时,求助于ChatGPT和Bard,但结果却是,人工智能弄错了游戏故事和角色的重要细节。然而,在测试了许多其他人工智能工具后,再次证明了,关注可信的来源并快速检查数据的准确性至关重要。经过努力,记者最终找到了一个名叫Humata.AI的一款免费网络应用程序,使用者可以让上传一份文档,然后聊天机器人会回答你关于这份材料的问题,并提供一份文档副本,并标明重点部分。

“在一次测试中,我上传了一篇在政府运营的科学文献搜索引擎PubMed上找到的研究论文。这个工具在几分钟内就为这份冗长的文件生成了相关摘要,这个过程如果让我自己来做,可能要花上几个小时,” 记者对于新发现非常兴奋。

对于如何正确、高效使用聊天机器人,投资人工智能公司的风险投资人内森·贝纳奇(Nathan Benaich)表示,训练拥有庞大数据集的机器的主要好处是,它们现在可以使用语言来模拟人类的推理,但重要的一步是将这种能力与高质量的信息结合起来。