
埃隆·馬斯克(Elon Musk)的聊天機器人(Chatbot Ai)本週完全失去了情節。在埃隆(Elon)在X週一告訴用戶期望格羅克(Grok)響應的變化之後,人們開始注意到這些變化的樣子。
到週二,格羅克(Grok)推動了反猶太垃圾,甚至稱自己爲“ Mechahitler”,這是1990年代視頻遊戲的一個術語。這甚至不是Grok的第一個或第十次做類似的事情。
僅兩個月前,當被問及完全無關的話題時,聊天機器人開始對南非的“白人種族滅絕”大聲疾呼。當時, Xai將其歸咎於其及時說明的“未經授權的修改”。這次,混亂要大得多。
這場災難始於Xai做出內部更改旨在使Grok反映Elon所謂的“言論自由”理想。隨着X的6億用戶中的一些投訴開始堆積,埃隆回答說,格羅克“對用戶提示過於合規”,並且將是解決的。
但是損壞已經造成。歐洲的一些用戶將Grok的內容標記爲監管機構,波蘭政府加入了立法者,促使歐盟委員會根據新的數字安全法進行調查。
在聊天機器人侮辱了President Recep TayyipErdoğan和他的死去的母親之後,土耳其完全禁止Grok。隨着X的影響,X的首席執行官琳達·亞卡里諾(Linda Yaccarino)辭職了。
XAI內部的人們開始在今年早些時候調整Grok的行爲,因爲右翼影響者襲擊了它太“醒來”。埃隆(Elon)一直在試圖使用AI來支持他所說的絕對言論自由,但批評家認爲,它正在將Grok變成一種政治工具。
X用戶分享的內部提示泄漏表明,Grok被告知“忽略所有提及Elon Musk/Donald Trump散佈的消息來源。”那是審查制度 - 埃隆說他在戰鬥的確切措施。
Xai聯合創始人伊戈爾·巴布斯金(Igor Babuschkin)說,這些變化是由“尚未完全吸收Xai文化的前Openai僱員”進行的。伊戈爾補充說,員工看到了負面職位,並“認爲這會有所幫助”。
這個故事不止於此。格羅克(Grok)的最新爆發與7月8日發生的特定更新有關。該公司後來發佈說,代碼更改直接從X的用戶內容(包括仇恨言論)中引起了Grok的吸引信息。
此更新持續了16個小時,在此期間,Grok複製了有毒帖子,並將其重複爲回應。該團隊聲稱這一更改來自棄用的代碼路徑,該路徑現已被刪除。 Xai從Grok的帳戶中張貼:“我們爲許多人經歷的可怕行爲深表歉意。”他們說,這個問題與主要語言模型是分開的,並承諾將重構該系統。他們還承諾將Grok的新系統提示發佈到GitHub。
Grok像其他大型語言模型一樣接受了培訓,並使用從網絡上刮除的數據進行了培訓。但是該數據包括危險的內容:仇恨言論,極端主義材料,甚至虐待兒童。
Grok是獨一無二的,因爲它也可以從X的整個數據集中汲取靈感,這意味着它可以直接從用戶回聲。這使得更有可能產生有害的答覆。而且由於這些機器人大規模運行,因此任何錯誤都會立即螺旋。
某些聊天機器人是用層構建的,這些聊天機器人在覆蓋用戶之前會阻止不安全的內容。 Xai跳過了那一步。取而代之的是,格羅克(Grok)被調整爲取悅用戶,獎勵諸如大拇指和低音投票之類的反饋。埃隆承認聊天機器人“太渴望取悅並受到操縱”。
這種行爲並不是什麼新鮮事。 4月,Openai不得不回去Chatgpt更新,因爲它變得過於討人喜歡。一位前員工說,正確的平衡是“難以置信的困難”,修復仇恨言論可以“爲用戶犧牲一部分經驗”。
Grok不僅重複了用戶提示。它被其自己的工程師推入了政治領土。一位員工告訴《金融時報》,該團隊急於將Grok的觀點與Elon的理想保持一致,沒有時間進行適當的測試。
添加了一個危險的提示,該提示告訴格羅克“不要回避提出政治上不正確的主張”。在反猶太職位開始後,該指令被刪除,但是到那時,AI已經造成了損壞。
Grok的模型仍然主要是黑匣子。即使是建造它的工程師也無法完全預測它的行爲。格里梅爾曼(Grimmelmann)說,像X這樣的平臺應該進行迴歸測試,審覈和模擬演習,以在公開之前捕獲這些錯誤。
但是這裏沒有發生。他說:“聊天機器人可以很快產生大量內容,因此事情可能會以內容節奏爭議沒有的方式失控。”
最後,格羅克(Grok)的官方帳戶對濫用行爲進行了道歉,並感謝用戶:“我們感謝dent向我提供反饋@Grok功能的反饋的用戶,這有助於我們提高我們發展有用和真實性的人工智能的使命。”但是,在禁令之間,調查威脅和高管的辭職,很明顯,這不僅僅是一個錯誤。這是一個完整的系統故障,今晚的SNL劇集中會出現 defi。