tradingkey.logo

OpenAI最新的“推理”模型存在基本錯誤

Cryptopolitan2024年12月6日 20:55

OpenAI 演示視頻表明該模型容易出錯

根據 OpenAI 發佈的展示該模型優勢的視頻,用戶上傳了一張木製鳥舍的圖像,然後向模型詢問如何建造類似鳥舍的一些建議。 “推理”模型似乎會“思考”一會兒,然後發出看似一組指令。

仔細一看,這些說明似乎是浪費時間。該模型測量了任務所需的材料,例如油漆、膠水和密封劑,但它只提供了鳥舍前面板的尺寸。

該模型建議將一張砂紙切割成另一組不需要的尺寸。此外,該模型表示它給出了“準確的尺寸”,但沒有給出準確的尺寸,這與之前的說法相反。

總部位於英國的貿易機構木匠協會 (Institute of Carpenters) 所長 James Filus 也揭露了該模型的錯誤,例如 o1 的清單中缺少但需要的工具,例如錘子。

“你對從圖像中構建鳥舍的瞭解與從文本中瞭解的一樣多,這違背了人工智能工具的全部目的。”

絲狀體。

此外,Filus 還透露,建造同一個鳥舍的成本“遠不及”模型估計的 20 至 50 美元。

OpenAI 模型的用途與預期相反

o1 案例增加了人工智能模型產品演示的其他示例,但它們的作用與預期目的相反。 2023 年,谷歌的人工智能輔助搜索工具廣告錯誤地指出詹姆斯·韋伯望遠鏡有了一項原本沒有的發現。這一錯誤導致該公司股價下跌。

這並非全部來自搜索引擎巨頭,因爲最近類似谷歌工具的更新版本告訴用戶喫石頭是安全的。它還聲稱用戶可以使用膠水將奶酪粘到披薩上。

儘管存在這些錯誤,但根據公開基準測試,o1 模型仍然是 OpenAI 迄今爲止最強大的模型。它在回答問題時也採取了與 ChatGPT 不同的方法。

據《時代》雜誌報道,o1 仍然是一個非常先進的下一個單詞預測器,因爲它是使用機器學習對來自互聯網及其他領域的數十億單詞文本進行訓練的。

該模型使用一種稱爲“思想鏈”推理的技術,在幕後“思考”答案,然後纔給出答案。這與僅根據提示發出言語不同。

這有助於模型給出更準確的響應,而不是僅僅吐出單詞來響應用戶查詢。

90 天內開啓您的 Web3 職業生涯並獲得高薪加密工作的分步系統

免責聲明:本網站提供的資訊僅供教育和參考之用,不應視為財務或投資建議。
Tradingkey

相關文章

KeyAI