
過去一年裏,Salesforce首席執行官馬克·貝尼奧夫多次對外強調,公司核心AI產品Agentforce可以幫助企業利用大語言模型實現自動化,從而顯著節省成本。
但最近,Salesforce向客戶傳遞的信號開始發生變化。公司高管表示,在不少場景下,Agentforce反而是在“少用”大語言模型(也就是生成式AI)時,運行得更穩定、效果更好。
Salesforce產品營銷高級副總裁桑吉娜·帕魯萊卡表示,公司正在Agentforce中引入更基礎、更加“確定性”的自動化方式,以提升軟件的可靠性。這類自動化依賴預先設定好的規則來做決策,而不是讓AI模型自行理解、推理。
她直言:“一年前,我們對大語言模型的信任度確實更高。”
目前,Salesforce官網已明確寫道,Agentforce可以顯示出“消除大語言模型固有隨機性”的能力,確保關鍵業務流程每一次都嚴格按照相同步驟執行。
這種做法的好處在於,可以有效避免聊天機器人或AI系統出現不可預測的行爲。但代價也很明顯:在理解用戶問題的語境、細節和複雜含義方面,這類系統有時不如ChatGPT等通用大模型給出的回答全面、靈活。
作爲全球市值最高的軟件公司之一,Salesforce對大模型策略的這種“回調”,可能會影響成千上萬正在使用相關技術的企業。
目前,包括OpenAI、Anthropic在內的AI廠商,正將大語言模型用於自動化軟件開發、數據分析、金融、營銷、銷售以及客戶服務等多個領域。儘管許多大型企業已經從中受益,但要把大模型真正變成可以穩定執行多步驟任務的“AI代理”,在技術、成本和組織管理層面仍面臨不少挑戰。
不少企業發現,要防止大模型“胡說八道”或給出錯誤判斷,並不容易。
對於庫存管理、退款處理等需要高度精準的業務場景來說,一旦出錯,可能直接導致經營決策失誤,甚至引發員工或客戶的不滿。
Salesforce自身在AI營銷話術上也經歷了明顯轉變。貝尼奧夫此前曾表示,Agentforce的部署“非常簡單”。但今年,一些客戶在使用過程中遭遇了所謂的“幻覺”問題。Salesforce對此回應稱,產品仍在快速迭代和成長中。
作爲少數披露AI專項收入的科技公司之一,Salesforce表示,Agentforce目前的年化收入有望超過5億美元。
在實際落地過程中,許多客戶需要AI廠商進行大量“手把手”的協助,才能讓系統正常運行。同時,不少客戶也對AI的運行成本表示擔憂。
Salesforce Agentforce的定價爲每次對話2美元,此外也提供按使用量預付積分的收費方式。
Agentforce首席技術官穆拉利達爾·克里希納普拉薩德表示,引入更基礎的自動化方式,比如通過明確的“如果這樣、就那樣”的規則來編程,不僅能降低系統運行成本,也能直接讓客戶付出更少費用。
他指出,如果給大語言模型的指令超過八條,它往往會開始“遺漏指令”,這在關鍵業務場景中是不可接受的。因此,在某些環節,必須採用完全確定性的方式,而不是浪費算力和成本去調用大模型。
“這樣做不僅是在節省大模型的成本,更重要的是,能確保用戶拿到正確的結果。”
以智能家居安防公司Vivint爲例。該公司去年開始使用Agentforce,爲其250萬名客戶提供客服支持,此前他們曾嘗試自行開發AI客服,但效果不佳。
Vivint在使用Agentforce初期也遇到過可靠性問題。例如,公司要求系統在每次客服互動結束後自動發送滿意度調查,但有時AI並不會執行這一指令,原因也無法追溯。
最終,Vivint與Salesforce合作,在Agentforce中加入了一個“確定性觸發機制”,確保調查問卷能夠每次準時發送。
Salesforce另一位高管菲爾·穆伊在今年10月的博客文章中指出,公司一些“最成熟的客戶”普遍面臨AI“偏移”問題——當用戶提出偏離主題的問題時,AI代理容易丟失原本的任務目標。
例如,當聊天機器人被設定爲引導用戶填寫表單時,如果用戶臨時詢問與表單無關的問題,AI往往會“跑題”,無法繼續完成核心任務。
爲此,Salesforce開發了名爲Agentforce Script的系統,用於識別哪些任務或任務環節不需要依賴大語言模型,從而降低不確定性。目前,該功能仍處於測試階段。
Salesforce此前曾以自身爲案例,重點宣傳Agentforce帶來的效率提升。貝尼奧夫表示,部分依賴OpenAI大模型的Agentforce,已經承擔了Salesforce內部大量客戶服務工作,使公司得以裁減約4000名客服人員。
但近幾個月來看,Salesforce似乎正在減少客服機器人對大模型的依賴。
例如,上週公司在回應有關Agentforce技術問題的求助時,僅向用戶展示了一組博客鏈接,而沒有進一步詢問具體情況或展開對話。其中首條鏈接甚至指向今年6月的一次系統宕機事件,與當下問題並不相關。
這種處理方式,與企業多年來使用的基礎型客服機器人並無太大區別。
對此,Salesforce發言人否認公司在客服代理中“回退”使用大模型的說法。他表示,今年公司對客服代理在多個方面進行了優化,包括重新梳理問題結構、加強安全防護、提升信息檢索質量,並讓回覆更加具體、更貼近真實客戶需求。
此外,公司還引入了更完善的監控和反饋機制,可以快速發現AI回覆過於寬泛、偏題或表述不清的問題,並進行迭代優化。
該發言人稱,客服代理目前“解決的問題數量創下新高”,預計截至明年1月下旬的財年內,成功解決的對話數量將同比增長90%。
“我們對在哪些場景、以及如何使用大語言模型,變得更加有針對性了。”
值得注意的是,不只是Salesforce,其他AI廠商同樣在應對大模型“失控”的問題。本月早些時候,服裝零售商Gap使用的一款由AI初創公司Sierra提供支持的聊天機器人,竟然回答了有關成人用品、性甚至納粹德國的問題。
Sierra隨後表示,這是由於配置錯誤,加上“惡意用戶”刻意誘導所致,目前相關問題已被修復。