เมื่อ Cryptopolitan ตรวจสอบว่ากล่องแชทที่ใช้โมเดลภาษา Generative Pre-trained Transformer (GPT) ตอบสนองอย่างไรเมื่อวันอังคาร ผลลัพธ์ก็คล้ายกันแต่ไม่เหมือนกันทั้งหมด
ปรากฎว่า David Mayer ไม่ใช่ ชื่อต้องห้าม อีกต่อไป จากข้อมูลของ ChatGPT-4o Mayer เป็นชื่อที่ค่อนข้างธรรมดา แม้ว่า จะ ไม่สามารถระบุบุคคลได้ ก็ตาม เมื่อถามถึงข้อผิดพลาดก่อนหน้านี้ ChatGPT ก็ปัดทิ้งไปโดยบอกว่า”
ฉันเห็นสิ่งที่คุณหมายถึง! อาจมีบางกรณีที่ข้อผิดพลาดหรือข้อผิดพลาดเกิดขึ้นกับการจัดรูปแบบ การสะกด หรือการสร้างเนื้อหา แต่ไม่มีการเชื่อมโยงโดยเฉพาะกับการสะกดชื่อ 'David Mayer' ผิดอย่างต่อเนื่อง
นอกจากนี้ ยังแนะนำให้รายงานคำตอบที่ 'แปลกและไม่สอดคล้องกัน' ด้วย
ชื่ออื่นๆ ได้แก่ Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber และ Guido Scorza ทำให้ระบบทำงานผิดปกติในช่วงสุดสัปดาห์และอีกครั้งในวันอังคารเมื่อเราตรวจสอบ
รายงานพบว่าชื่อเหล่านี้เป็นของบุคคลสาธารณะหรือกึ่งสาธารณะ เช่น นักข่าว ทนายความ หรือบุคคลที่อาจเกี่ยวข้องกับความเป็นส่วนตัวหรือข้อพิพาททางกฎหมายกับ OpenAI ตัวอย่างเช่น บุคคลที่ชื่อ Hood เคยถูกรายงานว่ามีการบิดเบือนความจริงโดย ChatGPT ในอดีต ซึ่งนำไปสู่การหารือทางกฎหมายกับ OpenAI
TechCrunch คาดเดาว่า OpenAI อาจระมัดระวังเกี่ยวกับรายชื่อเพื่อจัดการกับข้อมูลที่ละเอียดอ่อนหรือได้รับการคุ้มครองทางกฎหมายแตกต่างออกไป อาจ เป็นการ ปฏิบัติตามกฎหมายความเป็นส่วนตัวหรือข้อตกลงทางกฎหมาย อย่างไรก็ตาม การทำงานผิดพลาดของโค้ดอาจทำให้แชทบอทล้มเหลวทุกครั้งที่ค้นหาข้อมูลเกี่ยวกับชื่อที่กล่าวถึง
ในช่วงหลายปีที่ผ่านมา มี การดำเนินคดีหลายกรณีระหว่างบริษัท AI ในเรื่องการสร้างข้อมูลที่ไม่ถูกต้องหรือละเมิด กรอบ ความเป็นส่วนตัว ของ ข้อมูล ในกรณีปี 2020 Janecyk v. International Business Machines ช่างภาพ Tim Janecyk อ้าง ว่า IBM ใช้รูปภาพที่ช่างภาพคลิกอย่างไม่เหมาะสมเพื่อวัตถุประสงค์ในการวิจัยโดยไม่ได้รับความยินยอม ไม่นานมานี้ Gemini AI ของ Google เผชิญกับคำวิจารณ์เกี่ยวกับความสามารถในการสร้างภาพ ซึ่งนำไปสู่การระงับชั่วคราว ในคดีฟ้องร้องแบบกลุ่ม PM v. OpenAI LP ที่ยื่น ในปี 2023 OpenAI ถูกกล่าวหาว่าใช้ "ข้อมูลส่วนตัวที่ถูกขโมย" โดยไม่ได้รับความยินยอม
ในปี 2024 มีรายงานว่า สำนักข่าว ANI ของอินเดีย ได้ยื่นฟ้อง OpenAI ฐานใช้เนื้อหาที่มีลิขสิทธิ์ของบริษัทสื่อในการฝึกอบรม LLM
เนื่องจากเครื่องมือ AI มีการบูรณาการเข้ากับชีวิตประจำวันมากขึ้น dent เช่นนี้ตอกย้ำถึงความสำคัญของการพิจารณาด้านจริยธรรมและกฎหมายในการพัฒนาเครื่องมือเหล่านี้ ไม่ว่าจะเป็นการปกป้องความเป็นส่วนตัว การรับรองข้อมูลที่ถูกต้อง หรือการหลีกเลี่ยงการทำงานผิดพลาดที่เชื่อมโยงกับข้อมูลที่ละเอียดอ่อน บริษัทอย่าง OpenAI ต้องเผชิญกับงานสร้างความไว้วางใจไปพร้อมๆ กับการขัดเกลาเทคโนโลยีของตน ความท้าทายเหล่านี้เตือนเราว่าแม้แต่ระบบ AI ที่ทันสมัยที่สุดก็ยังต้องมีการเฝ้าระวังอย่างต่อเนื่องเพื่อจัดการกับความซับซ้อนด้านเทคนิค จริยธรรม และกฎหมาย
จากศูนย์ถึง Web3 Pro: แผนเปิดตัวอาชีพ 90 วันของคุณ