根据 OpenAI 发布的展示该模型优势的视频,用户上传了一张木制鸟舍的图像,然后向模型询问如何建造类似鸟舍的一些建议。 “推理”模型似乎会“思考”一会儿,然后发出看似一组指令。 仔细一看,这些说明似乎是浪费时间。该模型测量了任务所需的材料,例如油漆、胶水和密封剂,但它只提供了鸟舍前面板的尺寸。 该模型建议将一张砂纸切割成另一组不需要的尺寸。此外,该模型表示它给出了“准确的尺寸”,但没有给出准确的尺寸,这与之前的说法相反。 总部位于英国的贸易机构木匠协会 (Institute of Carpenters) 所长 James Filus 也揭露了该模型的错误,例如 o1 的清单中缺少但需要的工具,例如锤子。 “你对从图像中构建鸟舍的了解与从文本中了解的一样多,这违背了人工智能工具的全部目的。” 丝状体。 此外,Filus 还透露,建造同一个鸟舍的成本“远不及”模型估计的 20 至 50 美元。 o1 案例增加了人工智能模型产品演示的其他示例,但它们的作用与预期目的相反。 2023 年,谷歌的人工智能辅助搜索工具广告错误地指出詹姆斯·韦伯望远镜有了一项原本没有的发现。这一错误导致该公司股价下跌。 这并非全部来自搜索引擎巨头,因为最近类似谷歌工具的更新版本告诉用户吃石头是安全的。它还声称用户可以使用胶水将奶酪粘到披萨上。 尽管存在这些错误,但根据公开基准测试,o1 模型仍然是 OpenAI 迄今为止最强大的模型。它在回答问题时也采取了与 ChatGPT 不同的方法。 据《时代》杂志报道,o1 仍然是一个非常先进的下一个单词预测器,因为它是使用机器学习对来自互联网及其他领域的数十亿单词文本进行训练的。 该模型使用一种称为“思想链”推理的技术,在幕后“思考”答案,然后才给出答案。这与仅根据提示发出言语不同。 这有助于模型给出更准确的响应,而不是仅仅吐出单词来响应用户查询。 90 天内开启您的 Web3 职业生涯并获得高薪加密工作的分步系统。 OpenAI 演示视频表明该模型容易出错
OpenAI 模型的用途与预期相反