Investing.com — OpenAI ได้ลดเวลาและทรัพยากรที่ใช้ในการทดสอบความปลอดภัยของโมเดลปัญญาประดิษฐ์ ซึ่งสร้างความกังวลเกี่ยวกับมาตรการป้องกันที่เหมาะสมสําหรับเทคโนโลยีของบริษัท ตามรายงานของ Financial Times เมื่อวันศุกร์
รายงานของ FT ระบุว่า พนักงานและกลุ่มที่ประเมินความเสี่ยงและประสิทธิภาพของโมเดลของ OpenAI ได้รับเวลาเพียงไม่กี่วันในการประเมินผล โดยอ้างอิงจากแหล่งข่าว 8 คนที่คุ้นเคยกับเรื่องนี้
รายงานของ FT ยังระบุว่า กระบวนการทดสอบของสตาร์ทอัพรายนี้มีความละเอียดน้อยลง โดยมีทรัพยากรและเวลาที่ทุ่มเทให้กับการลดความเสี่ยงน้อยลง
รายงานนี้เกิดขึ้นในขณะที่ OpenAI เร่งปล่อยโมเดล AI ที่อัปเดตและรักษาความได้เปรียบในการแข่งขัน โดยเฉพาะท่ามกลางการแข่งขันที่เพิ่มขึ้นจากผู้เล่นใหม่จากจีนอย่าง DeepSeek
OpenAI กําลังเตรียมปล่อยโมเดล o3 ใหม่ภายในสัปดาห์หน้า แม้ว่ายังไม่มีการกําหนดวันที่ปล่อยอย่างเป็นทางการ แต่การเร่งรีบปล่อยโมเดลที่อัปเดตนี้อาจกําลังส่งผลเสียต่อการตรวจสอบความปลอดภัยของบริษัท
อย่างไรก็ตาม รายงานเกี่ยวกับเวลาทดสอบความปลอดภัยที่ลดลงนี้เกิดขึ้นท่ามกลางการเปลี่ยนแปลงใน AI ไปสู่การอนุมาน (inference) - คือการประมวลผลและสร้างข้อมูลใหม่ - จากการฝึกฝน (training) ซึ่งใช้ข้อมูลที่มีอยู่เพื่อปรับปรุงความสามารถของโมเดล AI
OpenAI ประกาศเมื่อเดือนเมษายนที่ผ่านมาว่าได้ระดมทุน 40 พันล้านดอลลาร์ในรอบการระดมทุนที่นําโดย SoftBank Group Corp. (TYO:9984) ของญี่ปุ่น ซึ่งประเมินมูลค่าบริษัทไว้ที่ 300 พันล้านดอลลาร์
บทความนี้ถูกแปลโดยใช้ความช่วยเหลือจากปัญญาประดิษฐ์(AI) สำหรับข้อมูลเพิ่มเติม โปรดอ่านข้อกำหนดการใช้งาน