
过去一年里,Salesforce首席执行官马克·贝尼奥夫多次对外强调,公司核心AI产品Agentforce可以帮助企业利用大语言模型实现自动化,从而显著节省成本。
但最近,Salesforce向客户传递的信号开始发生变化。公司高管表示,在不少场景下,Agentforce反而是在“少用”大语言模型(也就是生成式AI)时,运行得更稳定、效果更好。
Salesforce产品营销高级副总裁桑吉娜·帕鲁莱卡表示,公司正在Agentforce中引入更基础、更加“确定性”的自动化方式,以提升软件的可靠性。这类自动化依赖预先设定好的规则来做决策,而不是让AI模型自行理解、推理。
她直言:“一年前,我们对大语言模型的信任度确实更高。”
目前,Salesforce官网已明确写道,Agentforce可以显示出“消除大语言模型固有随机性”的能力,确保关键业务流程每一次都严格按照相同步骤执行。
这种做法的好处在于,可以有效避免聊天机器人或AI系统出现不可预测的行为。但代价也很明显:在理解用户问题的语境、细节和复杂含义方面,这类系统有时不如ChatGPT等通用大模型给出的回答全面、灵活。
作为全球市值最高的软件公司之一,Salesforce对大模型策略的这种“回调”,可能会影响成千上万正在使用相关技术的企业。
目前,包括OpenAI、Anthropic在内的AI厂商,正将大语言模型用于自动化软件开发、数据分析、金融、营销、销售以及客户服务等多个领域。尽管许多大型企业已经从中受益,但要把大模型真正变成可以稳定执行多步骤任务的“AI代理”,在技术、成本和组织管理层面仍面临不少挑战。
不少企业发现,要防止大模型“胡说八道”或给出错误判断,并不容易。
对于库存管理、退款处理等需要高度精准的业务场景来说,一旦出错,可能直接导致经营决策失误,甚至引发员工或客户的不满。
Salesforce自身在AI营销话术上也经历了明显转变。贝尼奥夫此前曾表示,Agentforce的部署“非常简单”。但今年,一些客户在使用过程中遭遇了所谓的“幻觉”问题。Salesforce对此回应称,产品仍在快速迭代和成长中。
作为少数披露AI专项收入的科技公司之一,Salesforce表示,Agentforce目前的年化收入有望超过5亿美元。
在实际落地过程中,许多客户需要AI厂商进行大量“手把手”的协助,才能让系统正常运行。同时,不少客户也对AI的运行成本表示担忧。
Salesforce Agentforce的定价为每次对话2美元,此外也提供按使用量预付积分的收费方式。
Agentforce首席技术官穆拉利达尔·克里希纳普拉萨德表示,引入更基础的自动化方式,比如通过明确的“如果这样、就那样”的规则来编程,不仅能降低系统运行成本,也能直接让客户付出更少费用。
他指出,如果给大语言模型的指令超过八条,它往往会开始“遗漏指令”,这在关键业务场景中是不可接受的。因此,在某些环节,必须采用完全确定性的方式,而不是浪费算力和成本去调用大模型。
“这样做不仅是在节省大模型的成本,更重要的是,能确保用户拿到正确的结果。”
以智能家居安防公司Vivint为例。该公司去年开始使用Agentforce,为其250万名客户提供客服支持,此前他们曾尝试自行开发AI客服,但效果不佳。
Vivint在使用Agentforce初期也遇到过可靠性问题。例如,公司要求系统在每次客服互动结束后自动发送满意度调查,但有时AI并不会执行这一指令,原因也无法追溯。
最终,Vivint与Salesforce合作,在Agentforce中加入了一个“确定性触发机制”,确保调查问卷能够每次准时发送。
Salesforce另一位高管菲尔·穆伊在今年10月的博客文章中指出,公司一些“最成熟的客户”普遍面临AI“偏移”问题——当用户提出偏离主题的问题时,AI代理容易丢失原本的任务目标。
例如,当聊天机器人被设定为引导用户填写表单时,如果用户临时询问与表单无关的问题,AI往往会“跑题”,无法继续完成核心任务。
为此,Salesforce开发了名为Agentforce Script的系统,用于识别哪些任务或任务环节不需要依赖大语言模型,从而降低不确定性。目前,该功能仍处于测试阶段。
Salesforce此前曾以自身为案例,重点宣传Agentforce带来的效率提升。贝尼奥夫表示,部分依赖OpenAI大模型的Agentforce,已经承担了Salesforce内部大量客户服务工作,使公司得以裁减约4000名客服人员。
但近几个月来看,Salesforce似乎正在减少客服机器人对大模型的依赖。
例如,上周公司在回应有关Agentforce技术问题的求助时,仅向用户展示了一组博客链接,而没有进一步询问具体情况或展开对话。其中首条链接甚至指向今年6月的一次系统宕机事件,与当下问题并不相关。
这种处理方式,与企业多年来使用的基础型客服机器人并无太大区别。
对此,Salesforce发言人否认公司在客服代理中“回退”使用大模型的说法。他表示,今年公司对客服代理在多个方面进行了优化,包括重新梳理问题结构、加强安全防护、提升信息检索质量,并让回复更加具体、更贴近真实客户需求。
此外,公司还引入了更完善的监控和反馈机制,可以快速发现AI回复过于宽泛、偏题或表述不清的问题,并进行迭代优化。
该发言人称,客服代理目前“解决的问题数量创下新高”,预计截至明年1月下旬的财年内,成功解决的对话数量将同比增长90%。
“我们对在哪些场景、以及如何使用大语言模型,变得更加有针对性了。”
值得注意的是,不只是Salesforce,其他AI厂商同样在应对大模型“失控”的问题。本月早些时候,服装零售商Gap使用的一款由AI初创公司Sierra提供支持的聊天机器人,竟然回答了有关成人用品、性甚至纳粹德国的问题。
Sierra随后表示,这是由于配置错误,加上“恶意用户”刻意诱导所致,目前相关问题已被修复。