Apple เตรียมเปิดตัว Siri เวอร์ชันใหม่ที่ฉลาดและทรงพลังยิ่งขึ้น โดยจะใช้โมเดลปัญญาประดิษฐ์จาก Google Gemini เป็นแกนหลักในการประมวลผลคำสั่งและการทำงานแบบหลายขั้นตอน ซึ่งถือเป็นความร่วมมือครั้งสำคัญระหว่างสองบริษัทเทคโนโลยีรายใหญ่ โดย Apple จะจ่ายค่าลิขสิทธิ์ให้ Google ประมาณ 1 พันล้านดอลลาร์ต่อปี เพื่อใช้โมเดล Gemini ที่มีขนาดใหญ่ถึง 1.2 ล้านล้านพารามิเตอร์ ซึ่งมากกว่าระบบ Apple Intelligence ปัจจุบันที่มีเพียง 150 พันล้านพารามิเตอร์อย่างมหาศาล
แม้จะใช้โมเดลจาก Google แต่การประมวลผลจะเกิดขึ้นบนเซิร์ฟเวอร์ Private Cloud Compute ของ Apple โดยที่ Google จะไม่มีสิทธิ์เข้าถึงข้อมูลผู้ใช้ Apple แต่อย่างใด Gemini ใช้สถาปัตยกรรมแบบ Mixture-of-Experts ซึ่งหมายความว่า แม้จะมีพารามิเตอร์รวมมหาศาล แต่จะเรียกใช้งานเฉพาะบางส่วนในแต่ละคำสั่ง เพื่อประหยัดทรัพยากรและลดต้นทุนการประมวลผล
ก่อนหน้านี้ Apple ได้พิจารณาใช้โมเดลของตนเอง รวมถึงทดลองใช้งานโมเดลจาก OpenAI และ Anthropic แต่สุดท้ายเลือก Google เนื่องจากค่าใช้จ่ายของ Anthropic สูงเกินไป และความร่วมมือกับ Google ในฐานะผู้ให้บริการเสิร์ชเริ่มต้นบนอุปกรณ์ Apple ก็มีอยู่แล้ว โดย Google จ่ายให้ Apple ราว 20 พันล้านดอลลาร์ต่อปีเพื่อรักษาสิทธิ์นั้น
แม้จะพึ่งพา Google ในระยะสั้น Apple ยังมีแผนพัฒนาโมเดล AI ของตัวเองอย่างต่อเนื่อง โดยกำลังสร้างโมเดลขนาด 1 ล้านล้านพารามิเตอร์ ซึ่งอาจพร้อมใช้งานภายในปี 2026 และจะเปลี่ยนมาใช้ระบบภายในทันทีเมื่อมีความสามารถเพียงพอ
เดิมที Apple ตั้งใจเปิดตัว Siri เวอร์ชันใหม่ใน iOS 18 แต่เนื่องจากข้อจำกัดด้านเทคโนโลยี จึงต้องปรับโครงสร้างระบบใหม่ทั้งหมด และเลื่อนการเปิดตัวไปเป็นช่วงฤดูใบไม้ผลิปี 2026 ผ่านอัปเดต iOS 26.4 Siri ใหม่นี้จะสามารถตอบคำถามซับซ้อนและทำงานข้ามแอปได้อย่างลื่นไหล ใกล้เคียงกับบริการอย่าง ChatGPT หรือ Claude แต่ Apple ไม่มีแผนเปิดตัวแอปแชตบอตแยกต่างหาก








