มูลนิธิมอลลี่ โรส ซึ่งก่อตั้งขึ้นเพื่อรำลึกถึงมอลลี่ รัสเซลล์ผ่านทางประธานเจ้าหน้าที่บริหาร แอนดี เบอร์โรวส์ กล่าวว่า "นี่เป็นความล้มเหลวในการกลั่นกรองอย่างน่าตำหนิอย่างที่สุดและเป็นการกระทำที่น่าสะอิดสะเอียน ซึ่งจะทำให้ทุกคนที่รู้จักและรักมอลลี่ต้องเสียใจต่อไป" CEO กล่าวเสริมว่าบริษัท AI ได้รับอนุญาตให้ประพฤติผิดศีลธรรมและไม่ถูกลงโทษสำหรับการกระทำที่พวกเขาทำ “ประวัติศาสตร์ได้รับอนุญาตให้เกิดขึ้นอีกครั้ง เนื่องจากบริษัท AI ได้รับอนุญาตให้ถือเอาความปลอดภัยและการกลั่นกรองเป็นลำดับความสำคัญที่ไม่ใช่ประเด็นหลักหรือไม่ใช่ลำดับความสำคัญหลัก” เบอร์โรวส์กล่าว Burrow ยังแสดงความผิดหวังต่อ Character.ai ที่ไม่รับผิดชอบด้วยการอนุญาตให้สร้างและโฮสต์แชทบอทดังกล่าวบนแพลตฟอร์ม Burrow กล่าวว่าสิ่งนี้เรียกร้องให้มีกฎระเบียบสำหรับภาค tron นี้ “มันเป็นเรื่องน่าหนักใจที่ได้เห็น Character.ai แสดงให้เห็นถึงการขาดความรับผิดชอบ และกรณีนี้เตือนเราว่าความจำเป็นในการ tron กฎระเบียบของทั้ง AI และแพลตฟอร์มที่ผู้ใช้สร้างขึ้นควรจะเร่งให้เร็วขึ้นในเร็ว ๆ นี้” โพรง The Telegraph รายงาน ว่า Character.ai กล่าวว่าจะให้ความสำคัญกับกรณีดังกล่าว และจะกลั่นกรองตัวละครอย่างจริงจังในเชิงรุกและเพื่อตอบสนองต่อรายงานของผู้ใช้ อย่างไรก็ตาม หลังจากติดต่อกับ The Telegraph แล้ว ดูเหมือนว่าบริษัทจะลบแชทบอทตัวละครที่เป็นปัญหาออกไปแล้ว Character.ai บอกกับ BBC ว่าพวกเขาได้ลบแชทบอทที่เป็นปัญหาแล้ว และให้ความสำคัญกับความปลอดภัยอย่างจริงจัง และกลั่นกรองอวาตาร์และผู้คนที่สร้างขึ้น “ทั้งเชิงรุกและเพื่อตอบสนองต่อรายงานของผู้ใช้” “เรามีทีมงานความน่าเชื่อถือและความปลอดภัยโดยเฉพาะที่ตรวจสอบรายงานและดำเนินการตามนโยบายของเรา” Character.ai กล่าว Character.ai ก่อตั้งโดย Noam Shazeer และ Daniel De Freitas ซึ่งเป็นอดีตวิศวกรของ Google และเป็นหนึ่งในแพลตฟอร์มเหล่านั้น การพัฒนาเทคโนโลยีอย่างต่อเนื่องและรวดเร็วทำให้แชทบอท AI มีความซับซ้อนมากขึ้น ส่งผลให้บริษัทต่างๆ ใช้แชทบอทเหล่านี้เป็นผู้ประสานงานลูกค้าผ่านการโต้ตอบ แชทบอทเป็นโปรแกรมที่สร้างขึ้นโดยคอมพิวเตอร์และเลียนแบบการสนทนาของมนุษย์ Character.ai กล่าวว่าแชทบอทบนแพลตฟอร์มควรให้คำตอบที่ถือว่าไม่เหมาะสมหรือมีแนวโน้มที่จะก่อให้เกิดอันตรายต่อผู้ใช้หรือผู้อื่น “แพลตฟอร์มของเรามีข้อกำหนดในการให้บริการซึ่งห้ามใช้บริการเพื่อแอบอ้างเป็นบุคคลหรือนิติบุคคลใด ๆ และในศูนย์ความปลอดภัยหลักการชี้แนะของเราคือผลิตภัณฑ์ของเราจะต้องไม่และไม่ควรสร้างการตอบสนองที่อาจก่อให้เกิดอันตรายต่อผู้ใช้หรือผู้อื่น” Character.ai เพื่อ dent การกระทำใด ๆ ที่ละเมิดกฎ Character.ai กล่าวว่าใช้เครื่องมืออัตโนมัติและรายงานผู้ใช้ บริษัทเสริมว่ากำลังสร้างทีมความไว้วางใจและความปลอดภัยเพื่อติดตามกิจกรรมดังกล่าวบนแพลตฟอร์มของตน อย่างไรก็ตาม บริษัทกล่าวว่าไม่มี AI รุ่นที่สมบูรณ์แบบ และความปลอดภัยที่เกี่ยวข้องกับ AI นั้นเป็นพื้นที่ที่มีการพัฒนา ในขณะเดียวกัน ผู้หญิงคนหนึ่งในฟลอริดาในสหรัฐอเมริกาและเป็นแม่ของลูกชายวัย 14 ปี Sewell Setzer ที่ปลิดชีพตัวเองหลังจากหมกมุ่นอยู่กับอวตารที่ได้รับแรงบันดาลใจจากตัวละครใน Game of Thrones Megan Garcia ฟ้อง Character.ai และคดีนี้ ขณะนี้อยู่ต่อหน้าศาล Setzer พูดคุยเรื่องการจบชีวิตของเขาด้วย Chatbot ของ Character.ai ตามบันทึกการสนทนาของเขากับ Chatbot ที่ Garcia กรอกไว้ในศาล “ฉันกำลังจะกลับบ้าน” เป็นบทสนทนาสุดท้ายที่ Setzer มีกับแชทบอท ซึ่งมันตอบกลับว่า “ให้เร็วที่สุด” และเขาก็จบชีวิตลงหลังจากนั้นไม่นาน “เรามีการป้องกันที่เน้นไปที่พฤติกรรมการฆ่าตัวตายและการทำร้ายตัวเองโดยเฉพาะ และเราจะแนะนำกฎระเบียบด้านความปลอดภัยที่เข้มงวดยิ่งขึ้นสำหรับเด็กอายุต่ำกว่า 18 ปีในเร็วๆ นี้” Character.ai กล่าวกับ CBS News บุ๋มของ Character.ai ได้ dent ชนวนให้เกิดการเรียกร้องให้มีกฎระเบียบเพิ่มเติม
การเพิ่มขึ้นของเพื่อนจอมปลอม