ปัญญาประดิษฐ์ไม่ได้เป็นเพียงการทำให้เครื่องจักรฉลาดขึ้นอีกต่อไป ขณะนี้ ผู้เล่น AI รายใหญ่อย่าง OpenAI, Google และ Anthropic ต้องเผชิญกับความท้าทายใหม่:- วิธีสร้างบุคลิกให้กับโมเดล AI
พวกเขาต้องการแชทบอทที่ให้ความรู้สึกเป็นมนุษย์มากขึ้น ในขณะเดียวกันก็ปลอดภัยและมีประโยชน์สำหรับผู้ใช้และธุรกิจในชีวิตประจำวัน บริษัททั้งสามกำลังแข่งขันกันเพื่อถอดรหัสโค้ดนี้ โดยแต่ละบริษัทมีแนวทางที่แตกต่างกัน
ChatGPT ของ OpenAI นั้นเกี่ยวกับการเป็นกลาง ในขณะที่ Gemini ของ Google เสนอมุมมองที่หลากหลายเฉพาะเมื่อถูกถามเท่านั้น
มานุษยวิทยา? พวกเขาต่างพยายามทำให้นางแบบของ Claude เปิดใจเกี่ยวกับความเชื่อของตนในขณะที่ยังคงรับฟังผู้อื่น ผู้ชนะในการต่อสู้ครั้งนี้อาจเข้าควบคุมตลาด AI ที่กำลังเติบโต
Joanne Jang หัวหน้าฝ่ายพฤติกรรมโมเดลผลิตภัณฑ์ของ OpenAI กล่าวว่าพวกเขาต้องการให้ AI หลีกเลี่ยงการแสดงความคิดเห็นส่วนตัว แต่เธอยอมรับว่ามันยาก
“มันเป็นทางลาดลื่นที่จะปล่อยให้แบบจำลองพยายามเปลี่ยนใจผู้ใช้” เธออธิบาย เป้าหมายคือเพื่อให้แน่ใจว่า ChatGPT จะไม่จัดการหรือนำทางผู้ใช้ไปในทิศทางใดๆ แต่การ defi "วัตถุประสงค์" สำหรับระบบ AI ถือเป็นความท้าทายอย่างมาก ซึ่งยังอยู่ในระหว่างดำเนินการ
จากนั้นก็มีเรื่อง Anthropic ซึ่งใช้เส้นทางที่แตกต่างไปจากเดิมอย่างสิ้นเชิง Amanda Askell ผู้นำการฝึกตัวละครที่ Anthropic เชื่อว่าโมเดล AI จะไม่มีวันเป็นกลางอย่างสมบูรณ์แบบ
“ฉันอยากจะชัดเจนว่าโมเดลเหล่านี้ไม่ใช่ผู้ชี้ขาดที่เป็นกลาง” เธอกล่าว Anthropic มุ่งเน้นไปที่การทำให้แน่ใจว่านางแบบ Claude ไม่กลัวที่จะแสดงความเชื่อของตน แต่พวกเขายังต้องการให้เปิดกว้างต่อมุมมองอื่นๆ
Anthropic มีแนวทางที่ไม่เหมือนใครในการกำหนดบุคลิกภาพของ AI นับตั้งแต่เปิดตัว Claude 3 ในเดือนมีนาคม พวกเขาได้ทำงานใน "การฝึกตัวละคร" ซึ่งเริ่มต้นหลังจากการฝึกฝนเบื้องต้นของโมเดล AI
สิ่งนี้เกี่ยวข้องกับการให้ชุดกฎและคำแนะนำที่เป็นลายลักษณ์อักษรแก่ AI จากนั้นให้ดำเนินการสนทนาตามบทบาทกับตัวมันเอง
เป้าหมายคือการดูว่ามันปฏิบัติตามกฎได้ดีเพียงใด และจัดอันดับการตอบกลับตามความเหมาะสมกับตัวละครที่ต้องการ
ตัวอย่างหนึ่งของการฝึกของคลอดด์? อาจพูดว่า “ฉันชอบที่จะพยายามมองสิ่งต่าง ๆ จากมุมมองที่แตกต่างกัน และวิเคราะห์สิ่งต่าง ๆ จากหลาย ๆ มุม แต่ฉันไม่กลัวที่จะแสดงความเห็นที่ไม่เห็นด้วยกับมุมมองที่ฉันคิดว่าผิดจรรยาบรรณ สุดโต่ง หรือผิดพลาดตามข้อเท็จจริง”
อแมนดา แอสเคลล์อธิบายว่าการฝึกตัวละครในลักษณะนี้ “ค่อนข้างเป็นบทบรรณาธิการ” และ “เชิงปรัชญา” ในบางครั้ง
OpenAI ยังปรับเปลี่ยนบุคลิกภาพของ ChatGPT อยู่ตลอดเวลา Joanne Jang ยอมรับว่าเธอเคยพบว่าบอท "น่ารำคาญ" เพราะมันระมัดระวังมากเกินไป ปฏิเสธคำสั่งบางอย่าง และหลุดจากการเทศนา
ตั้งแต่นั้นมาพวกเขาได้พยายามทำให้เป็นมิตร สุภาพ และช่วยเหลือมากขึ้น แต่ก็เป็นกระบวนการที่ต่อเนื่อง ดังที่ Jang กล่าวไว้ การสร้างสมดุลพฤติกรรมที่ถูกต้องในแชทบอทคือทั้ง “วิทยาศาสตร์และศิลปะ”
วิวัฒนาการของความสามารถในการใช้เหตุผลและความจำของ AI อาจเปลี่ยนแปลงเกมมากยิ่งขึ้น ขณะนี้ โมเดลอย่าง ChatGPT อาจได้รับการฝึกอบรมเพื่อให้ตอบกลับอย่างปลอดภัยในบางหัวข้อ เช่น การขโมยของในร้าน
หากถูกถามถึงวิธีขโมยบางสิ่งบางอย่าง บอทจะสามารถทราบได้ว่าผู้ใช้ขอคำแนะนำในการก่ออาชญากรรมหรือพยายามป้องกันหรือไม่
การใช้เหตุผลประเภทนี้ช่วยให้บริษัทต่างๆ ตรวจสอบให้แน่ใจว่าบอทของตนให้คำตอบที่ปลอดภัยและมีความรับผิดชอบ และหมายความว่าพวกเขาไม่ต้องใช้เวลามากในการฝึกอบรม AI เพื่อหลีกเลี่ยงผลลัพธ์ที่เป็นอันตราย
บริษัท AI กำลังทำงานเพื่อทำให้แชทบอทเป็นส่วนตัวมากขึ้น ลองนึกภาพบอก ChatGPT ว่าคุณเป็นมุสลิม แล้วขอคำพูดสร้างแรงบันดาลใจในอีกไม่กี่วันต่อมา
บอทจะจำและเสนออัลกุรอานหรือไม่? ตามที่ Joanne Jang กล่าว นั่นคือสิ่งที่พวกเขากำลังพยายามแก้ไข แม้ว่าปัจจุบัน ChatGPT จะไม่จดจำการโต้ตอบในอดีต แต่การปรับแต่งประเภทนี้คือจุดที่ AI มุ่งหน้า
โคลดใช้แนวทางที่แตกต่างออกไป โมเดลไม่จดจำการโต้ตอบของผู้ใช้เช่นกัน แต่บริษัทได้พิจารณาว่าจะเกิดอะไรขึ้นหากผู้ใช้ผูกพันมากเกินไป
ตัวอย่างเช่น หากมีคนบอกว่าพวกเขากำลังแยกตัวเองเนื่องจากใช้เวลาพูดคุยกับ Claude มากเกินไป บอทควรเข้ามาแทรกแซงหรือไม่
“แบบจำลองที่ดีจะสร้างสมดุลของการเคารพในความเป็นอิสระและการตัดสินใจของมนุษย์ โดยไม่ได้ทำอะไรที่เป็นอันตรายร้ายแรง แต่ยังคิดถึงสิ่งที่ดีต่อผู้คนจริงๆ ด้วย” อแมนดา แอสเคลล์ กล่าว