โครงการริเริ่มนี้เป็นส่วนหนึ่งของความพยายามของบริษัทในการแข่งขันที่เพิ่มสูงขึ้นของอุตสาหกรรมเทคโนโลยีกับ Meta, Microsoft และ Meta พิชัยยังเผยโมเดลล่าสุดที่มีความสามารถหลากหลายรูปแบบจะเปิดตัวในผลิตภัณฑ์ต่างๆ ของบริษัท รวมถึงเอาต์พุตภาพและเสียงแบบเนทีฟ บริษัทเสิร์ชเอ็นจิ้นยักษ์ใหญ่ได้เปิดตัว Gemini 1.0 ในเดือนธันวาคมปีที่แล้ว ซึ่ง Google ระบุว่าเป็นโมเดล “natively multimodal” รุ่นแรก โดยแนะนำว่าโมเดลสามารถประมวลผลและตอบสนองต่อการสอบถามข้อความ วิดีโอ รูปภาพ เสียง และโค้ดได้ เวอร์ชันล่าสุดแสดงถึงความพยายามล่าสุดของ Google ในการแข่งขัน AI ที่มีการแข่งขันเพิ่มมากขึ้นในอุตสาหกรรมเทคโนโลยี “หาก Gemini 1.0 เกี่ยวกับการจัดระเบียบและทำความเข้าใจข้อมูล Gemini 2.0 คือการทำให้มันมีประโยชน์มากขึ้น” พิชัย. Gemini 2.0 มาเกือบ 10 เดือนหลังจากที่ Google เปิดตัว 1.5 ครั้งแรก Google ระบุว่าโมเดลดังกล่าวยังอยู่ในการแสดงตัวอย่างเชิงทดลอง โดยมีเพียงเวอร์ชันเดียวเท่านั้น นั่นคือ Flash 2.0 ระดับล่างสุดที่เล็กกว่า Demis Hassabis ซีอีโอของ Google DeepMind และหัวหน้าฝ่ายความพยายามด้าน AI ของบริษัท กล่าวว่านี่ยังคงเป็นวันสำคัญสำหรับยักษ์ใหญ่ด้านเทคโนโลยีรายนี้ “มันดีพอๆ กับรุ่น Pro ในปัจจุบันเลย ดังนั้นคุณจึงสามารถคิดได้ว่าจะดีกว่าในระดับหนึ่งทั้งหมด ด้วยความคุ้มค่าและประสิทธิภาพและความเร็วที่เท่ากัน เรามีความสุขมากกับสิ่งนั้น” Hassabis อธิบาย ปัจจุบัน มีเพียงนักพัฒนาและผู้ทดสอบเท่านั้นที่เป็นกลุ่มแรกที่ได้รับ 2.0 ในขณะที่ผู้ใช้ Gemini คนอื่นๆ สามารถเข้าถึงโมเดลทดลอง 2.0 Flash ซึ่งต่อยอดจาก 1.5 Flash ซึ่งเปิดตัวเป็น โมเดลที่เร็วและคุ้มค่าที่สุด จากข้อมูลของบริษัท คาดว่าจะเพิ่มความสามารถในการให้เหตุผลของโมเดลใหม่ให้กับฟีเจอร์ภาพรวม AI ซึ่งขณะนี้ผู้ใช้หนึ่งพันล้านคนสามารถเข้าถึงได้ ตามข้อมูลของ Pichai เขาได้ระบุว่ากำลังกลายเป็นหนึ่งในคุณลักษณะการค้นหายอดนิยมของกลุ่ม ด้วยโมเดลใหม่นี้ พิชัยยังเน้นย้ำอีกว่า ขณะนี้ภาพรวมของ AI จะสามารถจัดการกับคำถามที่ซับซ้อนหลายขั้นตอนได้ เช่น สมการทาง matic อัล สมการ และคำถามหลายรูปแบบ แม้ว่าการทดสอบรุ่นใหม่ล่าสุดจะเริ่มต้นในสัปดาห์นี้ แต่ฟีเจอร์การให้เหตุผลจะเข้าถึงได้เฉพาะผู้ใช้จำนวนมากขึ้นในต้นปีหน้าเท่านั้น จากข้อมูลของ Google โมเดลการให้เหตุผลนั้นใช้ชิป AI รุ่นที่ 6 ของยักษ์ใหญ่เครื่องมือค้นหาอย่าง Trillium ซึ่งเปิดให้ใช้งานสำหรับลูกค้า Google Cloud ในวันพุธเช่นกัน ในบล็อก โพสต์ Google เปิดเผยว่าชิปใหม่ให้ประสิทธิภาพที่ดีขึ้น 4 เท่าและประหยัดพลังงานมากกว่ารุ่นก่อนถึง 67% เรากำลังเริ่มต้นยุค Gemini 2.0 ด้วย Gemini 2.0 Flash ซึ่งมีประสิทธิภาพเหนือกว่า 1.5 Pro บนการวัดประสิทธิภาพหลักที่ความเร็ว 2 เท่า (ดูแผนภูมิด้านล่าง) ฉันตื่นเต้นเป็นพิเศษที่ได้เห็นความก้าวหน้าอย่างรวดเร็วของการเขียนโค้ด และยังมีอีกมากมายที่จะตามมาในอนาคต นักพัฒนาสามารถทดลองใช้เวอร์ชันทดลองใน AI… pic.twitter.com/iEAV8dzkaW — สุนทร พิชัย (@sundarpichai) 11 ธันวาคม 2024 The Google CEO also announced other features, such as the new Gemini feature known as Deep Research which can act as a research assistant by using advanced reasoning and long context capabilities. This new feature is available in Gemini Advanced and is capable of compiling research reports on behalf of a user. Hassabis said that Gemini 2.0 was laying the foundation for a great 2025. “We really see 2025 as the true start of the agent-based era.” Hassabis. This comes as the company announced the launch of another product, Project Mariner, an experimental new Chrome extension that can literally use a web browser for users. Additionally, Google also announced that Jules – an agent created specifically to help developers find and fix bad code- and a new Gemini 2.0-based agent that can look at users’ screens and help them play video games better. According to Hassabis, the game agent which he calls an “Easter egg” points to it being truly multimodal. A Step-By-Step System To Launching Your Web3 Career and Landing High-Paying Crypto Jobs in 90 Days. Google จะเปิดตัวโมเดลนี้ในผลิตภัณฑ์ต่างๆ
Google ประกาศคุณสมบัติใหม่มากมาย