
路透日内瓦10月22日 - 根据欧洲广播联盟(EBU)和英国广播公司(BBC)周三发表的最新研究报告,目前在业界领先的人工智能助手在近半数的回答中,错误呈现了新闻内容。
这项国际研究分析了3,000笔由人工智能助手回答的新闻相关问题。研究评估了14种语言的人工智能助手,评估其准确性、讯息来源,以及区分事实与意见的能力。受测对象包括 ChatGPT、Copilot、Gemini 和 Perplexity。
该研究显示,所分析的人工智能回答中,有45%至少包含一个重大问题,另有81%存在某种形式的错误。
OpenAI与微软先前曾表示,“AI幻觉”--即因讯息不足等因素而生成错误或误导性资讯--是他们正在努力解决的问题。
新闻来源错误
该研究显示,人工智能助手回应的答案中,有三分之一存在严重的来源错误,如来源缺漏、误导或错误归因。
研究还发现,在所有人工智能助手的回复中,有20%存在准确性问题,包括信息过时。
欧洲广播联盟表示,随着人工智能助手日益取代传统搜寻引擎成为新闻来源,公众的信任可能也因此受到破坏。
欧洲广播联盟媒体总监Jean Philip De Tender说:“当人们不知道该相信什么时,他们最终什么也不相信,这可能会阻碍民主参与。”(完)