剑桥词典公布了2023年的年度词汇是“hallucinate”(幻觉),因为这个词增加了一个新的定义,与制造虚假信息的人工智能(AI)有关。
人工智能幻觉,也被称为虚构,有时看起来毫无意义,但也可能看起来完全可信,即使事实上不准确或最终不合逻辑。
“幻觉”的传统定义是似乎看到、听到、感觉到或闻到不存在的东西,通常是因为健康状况或服用了药物。
《剑桥词典》中新增的定义是:“当人工智能(=具有人脑某些特性的计算机系统,例如以人类的方式产生语言的能力)产生幻觉时,它会产生虚假信息。”
此前一年,人们对ChatGPT等生成式人工智能(AI)工具的兴趣激增,公众的注意力转向了人工智能的局限性,以及它们是否可以被克服。
人工智能工具,特别是那些使用大型语言模型(llm)的工具,已经被证明能够生成可信的散文,但通常使用虚假、误导或编造的“事实”。
他们以一种自信的、有时是可信的方式“产生幻觉”。
《剑桥词典》的出版经理温德林·尼科尔斯说:“人工智能能够产生‘幻觉’的事实提醒我们,人类在使用这些工具时仍然需要运用批判性思维技能。”
“人工智能非常擅长从大量数据中提取特定信息并加以整合。
“但你要求他们越原创,他们就越有可能误入歧途。
“在最好的情况下,大型语言模型只能和它们的训练数据一样可靠。
“在为法学硕士提供权威和最新的信息方面,人类的专业知识可以说比以往任何时候都更重要,也更受追捧。”人工智能的幻觉已经对现实世界产生了影响。
一家美国律师事务所使用ChatGPT进行法律研究,导致法庭上引用虚构的案件。
在b谷歌自己的聊天机器人巴德的宣传视频中,这个人工智能工具在詹姆斯·韦伯太空望远镜的问题上犯了一个事实错误。
这个新定义表明,人们越来越倾向于将人工智能技术拟人化,在我们说话、写作和思考机器时使用类似人类的隐喻。
剑桥大学的人工智能伦理学家亨利·舍夫林博士说:“‘幻觉’一词被广泛用于指像ChatGPT这样的系统所犯的错误,这为我们如何思考和拟人化人工智能提供了一个迷人的快照。”
“当然,不准确或误导性的信息一直伴随着我们,无论是以谣言、宣传还是‘假新闻’的形式。
“虽然这些通常被认为是人类的产物,但‘hallucinate’是一个唤起性的动词,暗示着一个与现实脱节的代理。”
这种语言选择反映了一种微妙而深刻的感知转变:产生幻觉的是人工智能,而不是用户。’”虽然这并不意味着人们普遍相信人工智能有感知能力,但它强调了我们愿意将类似人类的属性归因于人工智能。
“随着这十年的发展,我预计我们的心理学词汇将进一步扩大,以涵盖我们正在创造的新智能的奇怪能力。”
本文来自作者[一只向凝呀]投稿,不代表高八度资讯立场,如若转载,请注明出处:https://wak.gaobadu.top/cskp/202505-2825.html
评论列表(4条)
我是高八度资讯的签约作者“一只向凝呀”!
希望本篇文章《《剑桥词典》评选“人工智能的崛起”为2023年度词汇》能对你有所帮助!
本站[高八度资讯]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:...