tradingkey.logo

Character.ai เผชิญกับการตอบโต้ต่อเวอร์ชันแชทบอทของเด็กสาววัยรุ่นที่เสียชีวิต

Cryptopolitan30 ต.ค. 2024 เวลา 19:00

มูลนิธิมอลลี่ โรส ซึ่งก่อตั้งขึ้นเพื่อรำลึกถึงมอลลี่ รัสเซลล์ผ่านทางประธานเจ้าหน้าที่บริหาร แอนดี เบอร์โรวส์ กล่าวว่า "นี่เป็นความล้มเหลวในการกลั่นกรองอย่างน่าตำหนิอย่างที่สุดและเป็นการกระทำที่น่าสะอิดสะเอียน ซึ่งจะทำให้ทุกคนที่รู้จักและรักมอลลี่ต้องเสียใจต่อไป"

CEO กล่าวเสริมว่าบริษัท AI ได้รับอนุญาตให้ประพฤติผิดศีลธรรมและไม่ถูกลงโทษสำหรับการกระทำที่พวกเขาทำ

“ประวัติศาสตร์ได้รับอนุญาตให้เกิดขึ้นอีกครั้ง เนื่องจากบริษัท AI ได้รับอนุญาตให้ถือเอาความปลอดภัยและการกลั่นกรองเป็นลำดับความสำคัญที่ไม่ใช่ประเด็นหลักหรือไม่ใช่ลำดับความสำคัญหลัก” เบอร์โรวส์กล่าว

บุ๋มของ Character.ai ได้ dent ชนวนให้เกิดการเรียกร้องให้มีกฎระเบียบเพิ่มเติม

Burrow ยังแสดงความผิดหวังต่อ Character.ai ที่ไม่รับผิดชอบด้วยการอนุญาตให้สร้างและโฮสต์แชทบอทดังกล่าวบนแพลตฟอร์ม Burrow กล่าวว่าสิ่งนี้เรียกร้องให้มีกฎระเบียบสำหรับภาค tron นี้

“มันเป็นเรื่องน่าหนักใจที่ได้เห็น Character.ai แสดงให้เห็นถึงการขาดความรับผิดชอบ และกรณีนี้เตือนเราว่าความจำเป็นในการ tron กฎระเบียบของทั้ง AI และแพลตฟอร์มที่ผู้ใช้สร้างขึ้นควรจะเร่งให้เร็วขึ้นในเร็ว ๆ นี้”

โพรง

The Telegraph รายงาน ว่า Character.ai กล่าวว่าจะให้ความสำคัญกับกรณีดังกล่าว และจะกลั่นกรองตัวละครอย่างจริงจังในเชิงรุกและเพื่อตอบสนองต่อรายงานของผู้ใช้ อย่างไรก็ตาม หลังจากติดต่อกับ The Telegraph แล้ว ดูเหมือนว่าบริษัทจะลบแชทบอทตัวละครที่เป็นปัญหาออกไปแล้ว

Character.ai บอกกับ BBC ว่าพวกเขาได้ลบแชทบอทที่เป็นปัญหาแล้ว และให้ความสำคัญกับความปลอดภัยอย่างจริงจัง และกลั่นกรองอวาตาร์และผู้คนที่สร้างขึ้น “ทั้งเชิงรุกและเพื่อตอบสนองต่อรายงานของผู้ใช้”

“เรามีทีมงานความน่าเชื่อถือและความปลอดภัยโดยเฉพาะที่ตรวจสอบรายงานและดำเนินการตามนโยบายของเรา” Character.ai กล่าว

Character.ai ก่อตั้งโดย Noam Shazeer และ Daniel De Freitas ซึ่งเป็นอดีตวิศวกรของ Google และเป็นหนึ่งในแพลตฟอร์มเหล่านั้น

การเพิ่มขึ้นของเพื่อนจอมปลอม

การพัฒนาเทคโนโลยีอย่างต่อเนื่องและรวดเร็วทำให้แชทบอท AI มีความซับซ้อนมากขึ้น ส่งผลให้บริษัทต่างๆ ใช้แชทบอทเหล่านี้เป็นผู้ประสานงานลูกค้าผ่านการโต้ตอบ

แชทบอทเป็นโปรแกรมที่สร้างขึ้นโดยคอมพิวเตอร์และเลียนแบบการสนทนาของมนุษย์ Character.ai กล่าวว่าแชทบอทบนแพลตฟอร์มควรให้คำตอบที่ถือว่าไม่เหมาะสมหรือมีแนวโน้มที่จะก่อให้เกิดอันตรายต่อผู้ใช้หรือผู้อื่น

“แพลตฟอร์มของเรามีข้อกำหนดในการให้บริการซึ่งห้ามใช้บริการเพื่อแอบอ้างเป็นบุคคลหรือนิติบุคคลใด ๆ และในศูนย์ความปลอดภัยหลักการชี้แนะของเราคือผลิตภัณฑ์ของเราจะต้องไม่และไม่ควรสร้างการตอบสนองที่อาจก่อให้เกิดอันตรายต่อผู้ใช้หรือผู้อื่น”

Character.ai

เพื่อ dent การกระทำใด ๆ ที่ละเมิดกฎ Character.ai กล่าวว่าใช้เครื่องมืออัตโนมัติและรายงานผู้ใช้ บริษัทเสริมว่ากำลังสร้างทีมความไว้วางใจและความปลอดภัยเพื่อติดตามกิจกรรมดังกล่าวบนแพลตฟอร์มของตน

อย่างไรก็ตาม บริษัทกล่าวว่าไม่มี AI รุ่นที่สมบูรณ์แบบ และความปลอดภัยที่เกี่ยวข้องกับ AI นั้นเป็นพื้นที่ที่มีการพัฒนา

ในขณะเดียวกัน ผู้หญิงคนหนึ่งในฟลอริดาในสหรัฐอเมริกาและเป็นแม่ของลูกชายวัย 14 ปี Sewell Setzer ที่ปลิดชีพตัวเองหลังจากหมกมุ่นอยู่กับอวตารที่ได้รับแรงบันดาลใจจากตัวละครใน Game of Thrones Megan Garcia ฟ้อง Character.ai และคดีนี้ ขณะนี้อยู่ต่อหน้าศาล

Setzer พูดคุยเรื่องการจบชีวิตของเขาด้วย Chatbot ของ Character.ai ตามบันทึกการสนทนาของเขากับ Chatbot ที่ Garcia กรอกไว้ในศาล

“ฉันกำลังจะกลับบ้าน” เป็นบทสนทนาสุดท้ายที่ Setzer มีกับแชทบอท ซึ่งมันตอบกลับว่า “ให้เร็วที่สุด” และเขาก็จบชีวิตลงหลังจากนั้นไม่นาน

“เรามีการป้องกันที่เน้นไปที่พฤติกรรมการฆ่าตัวตายและการทำร้ายตัวเองโดยเฉพาะ และเราจะแนะนำกฎระเบียบด้านความปลอดภัยที่เข้มงวดยิ่งขึ้นสำหรับเด็กอายุต่ำกว่า 18 ปีในเร็วๆ นี้” Character.ai กล่าวกับ CBS News

ข้อจำกัดความรับผิดชอบ: ข้อมูลที่ให้ไว้บนเว็บไซต์นี้มีไว้เพื่อวัตถุประสงค์ทางการศึกษาและให้ข้อมูลเท่านั้น และไม่ควรถือเป็นคำแนะนำทางการเงินหรือการลงทุน

บทความที่เกี่ยวข้อง

KeyAI