Jensen Huang ซีอีโอของ Nvidia ไม่เห็นวิธีแก้ปัญหานี้ เขากล่าวว่า AI มากขึ้นเป็นสิ่งเดียวที่สามารถจัดการกับการละเมิด AI ได้
การพูดในงานที่วอชิงตันซึ่งจัดโดย Bipartisan Policy Center ประเด็นทั้งหมดของ Huang คือปัญญาประดิษฐ์เป็นทั้งปัญหาและทางแก้ไข
เขาอธิบายว่าความสามารถของ AI ในการสร้างข้อมูลปลอมและข้อมูลเท็จด้วยความเร็วสูง หมายความว่าจะต้องใช้ความเร็วพอๆ กันจึงจะตามทัน Huang ยังเปรียบเทียบสถานการณ์ AI ในปัจจุบันกับความปลอดภัยทางไซเบอร์
เขาชี้ให้เห็นว่า “เกือบทุกบริษัท” เสี่ยงต่อการถูกโจมตีได้ตลอดเวลา และวิธีเดียวที่จะป้องกันภัยคุกคามอย่างต่อเนื่องเหล่านี้คือผ่านระบบที่ขับเคลื่อนด้วย AI ขั้นสูง
เช่นเดียวกับ AI จำเป็นต้องมี AI ที่ดีกว่าเพื่อป้องกัน AI ที่เป็นอันตราย
ความกังวลเกี่ยวกับการใช้ AI ในทางที่ผิดกำลังเพิ่มขึ้นในสหรัฐอเมริกา เนื่องจากประเทศกำลังเตรียมการเลือกตั้งระดับรัฐบาลกลางในเดือนพฤศจิกายน
ด้วยการเพิ่มขึ้นของข้อมูลที่ผิดจาก AI ประชาชนจึงกังวลเกี่ยวกับอิทธิพลที่มีต่อประชาธิปไตย
การสำรวจของ Pew Research Center พบว่าเกือบ 60% ของชาวอเมริกันมีความกังวล "อย่างมาก" หรือ "มาก" ว่า AI จะถูกนำมาใช้เพื่อเผยแพร่ข้อมูลเท็จเกี่ยวกับผู้สมัคร
ทั้งพรรคเดโมแครตและรีพับลิกันต่างก็กังวลเรื่องนี้ไม่แพ้กัน สิ่งที่น่ากังวลยิ่งกว่านั้นก็คือ ประมาณสองในห้าคนเชื่อว่า AI ส่วนใหญ่จะถูกนำมาใช้เพื่อจุดประสงค์ที่ไม่ดีในระหว่างการเลือกตั้ง
มีเพียง 5% เท่านั้นที่มองโลกในแง่ดีเกี่ยวกับศักยภาพของ AI Huang เรียกร้องให้รัฐบาลสหรัฐฯ ยกระดับเกม AI เขากล่าวว่ารัฐบาลจำเป็นต้องเป็นผู้ปฏิบัติงานด้าน AI เพื่อก้าวนำหน้า
CEO ของ Nvidia เน้นย้ำว่าทุกแผนกควรใช้ AI โดยเฉพาะด้านพลังงานและการป้องกัน Huang ยังแนะนำให้สร้างซูเปอร์คอมพิวเตอร์ AI
เขาเชื่อว่านักวิทยาศาสตร์จะกระตือรือร้นที่จะพัฒนาอัลกอริธึมใหม่ๆ ที่จะช่วยให้ประเทศก้าวหน้าได้
เนื่องจาก AI มีการพัฒนาอย่างต่อเนื่อง จึงจำเป็นต้องมีพลังมากขึ้น อย่างแท้จริง. ศูนย์ข้อมูล AI ในปัจจุบันใช้พลังงานไฟฟ้าถึง 1.5% ของพลังงานไฟฟ้าทั่วโลกอยู่แล้ว แต่ Huang คาดการณ์ว่าตัวเลขนี้จะเพิ่ม matic อย่างมาก
ศูนย์ข้อมูลในอนาคตอาจต้องการพลังงานมากกว่าที่เราเห็นในปัจจุบันถึง 10 ถึง 20 เท่า เขาอธิบายว่าโมเดล AI สามารถเริ่มสอนซึ่งกันและกัน ซึ่งจะช่วยเพิ่มการใช้พลังงานต่อไป
แต่หวงก็มองเห็นวิธีแก้ปัญหาเช่นกัน เขา แนะนำให้ สร้างศูนย์ข้อมูลใกล้กับแหล่งพลังงานส่วนเกินที่ขนส่งได้ยาก
เนื่องจาก AI ไม่สนใจว่าจะเรียนรู้จากที่ใด ศูนย์ข้อมูลจึงถูกสร้างขึ้นในสถานที่ห่างไกลโดยต้องใช้ทรัพยากรพลังงานเพียงพอ
ในขณะเดียวกัน ยังมีการต่อสู้เกิดขึ้นอีกครั้งเกี่ยวกับวิธีการควบคุม AI ในแคลิฟอร์เนีย ผู้ว่าการรัฐกาวิน นิวซัมได้คัดค้านร่างกฎหมายเมื่อคืนนี้
เรียกว่า SB 1047 และได้รับการออกแบบมาเพื่อบังคับใช้มาตรการรักษาความปลอดภัยสำหรับระบบ AI ร่างกฎหมายดังกล่าวทำให้เกิดการต่อต้านครั้งใหญ่จากบริษัทเทคโนโลยีขนาดใหญ่ เช่น OpenAI, Meta และ Google
นิวซัมเชื่อว่าร่างกฎหมายดังกล่าวจะขัดขวางนวัตกรรมและไม่สามารถปกป้องผู้คนจากอันตรายที่แท้จริงได้
ตามรายงานของ Newsom มาตรฐานของร่างกฎหมายนี้เข้มงวดเกินไปสำหรับฟังก์ชัน AI ขั้นพื้นฐาน และแนวทางการควบคุมไม่ใช่วิธีที่ดีที่สุดในการจัดการกับภัยคุกคามจาก AI
เขียนโดยวุฒิสมาชิกจากพรรคเดโมแครต Scott Wiener ร่างกฎหมายดังกล่าวกำหนดให้นักพัฒนา AI ต้องใช้ “kill switch” สำหรับโมเดลของตน และเผยแพร่แผนการลดความเสี่ยงที่รุนแรง
นอกจากนี้ยังจะทำให้นักพัฒนาต้องรับผิดทางกฎหมายหากระบบของพวกเขานำภัยคุกคามอย่างต่อเนื่องเช่นการครอบครองตาราง AI