研究揭示AI搜索引擎经常提供不准确的信息
Brief news summary
《哥伦比亚新闻评论》的一项研究揭示了许多用户错误信任的人工智能搜索引擎中令人担忧的不准确性。OpenAI和xAI的模型经常提供误导性信息,Perplexity的数据误表述率为37%,而xAI的Grok则有高达97%的事实错误率,包括生成虚假的网址。总体来看,大约60%的用户查询会导致错误信息。 Perplexity规避付费墙的方法引发了法律担忧,因为它声称在可能侵犯的情况下仍属于合理使用。尽管检索增强生成旨在提高准确性,但它往往加剧了不准确性,并可能引入区域性偏见。 用户注意到一些聊天机器人承认其错误。《时代》杂志的马克·霍华德警告称,这些不准确性可能会损害出版商的可信度和声誉。他建议用户对免费的AI工具保持怀疑,因为它们容易提供误导性的回答。霍华德呼吁推动人工智能技术进步,并强调解决不可靠信息传播的重要性。AI搜索引擎常常像那个自信满满的朋友,尽管没有真正的理解,却在许多话题上发号施令。哥伦比亚新闻评论(CJR)最近的一项研究指出,OpenAI和xAI等公司的AI模型在询问特定新闻事件时,常常提供不准确的信息,测试中60%的查询存在严重错误。例如,Perplexity的错误信息率达到37%,而xAI的Grok在97%的情况下虚构细节,甚至会发明虚假的网址。 此外,一些AI搜索引擎,如Perplexity,被指绕过网站付费墙,尽管出版商使用了不爬行指令,称其做法属于合理使用。这个争议影响了出版商对其内容展示方式的控制,如果用户接收到不正确的来自可靠来源的信息,这可能会损害他们的品牌。 同时,对于用户轻信的担忧也被提出,《时代》杂志的首席运营官马克·霍华德(Mark Howard)建议消费者对免费AI工具的准确性保持怀疑。人们寻找快速答案而不进行验证的倾向显而易见,许多人更倾向于向AI模型寻求即时回应,而不是点击链接访问网站。即使在生成式AI流行之前,超过一半的谷歌搜索是“零点击”,强调了对可访问、简单信息的渴望。 考虑到语言模型作为高级自动补全系统的固有限制,CJR的发现并不令人惊讶,它们常常生成看似合乎逻辑的内容,却没有完全理解这些内容。尽管存在这些问题,霍华德对于聊天机器人技术未来的改进仍持乐观态度,但他也承认传播不准确信息的风险。
Watch video about
研究揭示AI搜索引擎经常提供不准确的信息
Try our premium solution and start getting clients — at no cost to you