Apple เผยโฉม iOS 26 อย่างยิ่งใหญ่ในงาน WWDC 2025 พร้อมฟีเจอร์ใหม่มากมายที่ดูเหมือนจะ “ใหม่” เฉพาะกับผู้ใช้ iPhone เท่านั้น เพราะหลายสิ่งที่เปิดตัวในปีนี้ ผู้ใช้ Android คุ้นเคยกันมานานเกินครึ่งทศวรรษแล้ว การอัปเกรด iOS ครั้งนี้จึงเปรียบเสมือนการย้อนดู “รวมฮิต Android เวอร์ชันปีเก่า” มากกว่าจะเป็นนวัตกรรมล้ำอนาคตอย่างที่เคยเป็นในอดีต
แม้ Apple Intelligence จะเป็นหัวใจสำคัญของ iOS 26 ที่ยกระดับประสบการณ์ผู้ใช้ด้วยระบบ AI ที่ฝังในระบบอย่างลึกซึ้ง แต่หากพิจารณาในแง่ของแนวคิดและฟังก์ชันที่เปิดตัว หลายอย่างถูกนำเสนอในแบบที่ Android เคยทำมาก่อนตั้งแต่เมื่อหลายปีที่แล้ว มาดูกันว่า iOS 26 มีฟีเจอร์ไหนที่ Android เคยมี และเคย “ใหม่” มาก่อน Apple แล้วบ้าง
ในบทความนี้
Call Screening: แอปเปิลเพิ่งมีในปี 2025 – Google Pixel มีตั้งแต่ 2018
หนึ่งในฟีเจอร์เด่นของ iOS 26 คือ Call Screening ที่ช่วยกรองสายโทรเข้าไม่พึงประสงค์ โดยให้ AI รับสายแทนและรายงานเนื้อหาการสนทนาเพื่อให้ผู้ใช้ตัดสินใจว่าจะรับสายหรือไม่ ซึ่ง Google Pixel มีฟีเจอร์ Call Screen มาตั้งแต่ปี 2018 แล้ว โดยใช้ Google Assistant เป็นผู้ช่วยรับสายอัตโนมัติ ช่วยลดความรำคาญจากสแปมคอลมาหลายปี
Hold Assist: iPhone รอฟังแทนได้แล้วในปี 2025 – Android มีตั้งแต่ 2020
ฟีเจอร์ใหม่อีกอย่างของ iOS 26 คือ Hold Assist ที่ให้ AI คอยฟังแทนเวลาโทรศัพท์ไปยังบริการที่ต้องรอสาย เมื่อถึงคิวพูดคุยกับเจ้าหน้าที่ ระบบจะเรียกให้ผู้ใช้กลับมา ฟีเจอร์นี้คล้ายกับ Hold for Me บน Google Pixel ซึ่งเปิดตัวในปี 2020 พร้อม Android 11
Location History: iOS 26 เพิ่งมี “Visited Places” – Android มีตั้งแต่ปี 2012
Apple Intelligence บน iOS 26 มาพร้อมฟีเจอร์ Visited Places ที่บันทึกสถานที่ที่ผู้ใช้เคยไปเยือน เหมาะกับการค้นหาร้านอาหารหรือสถานที่ต่าง ๆ ย้อนหลัง แต่ Android มีระบบ Location History บน Google Maps มาตั้งแต่ปี 2012 และบันทึกได้ละเอียดกว่ามานานแล้ว แม้แต่อุปกรณ์รุ่นเก่าอย่าง Samsung Galaxy S3 เมื่อปี 2012 ก็มีฟังก์ชันนี้เช่นกัน
Visual Intelligence: รู้จักวัตถุผ่านกล้อง – Google Lens เคยทำมาแล้วตั้งแต่ปี 2017
Apple เปิดตัว Visual Intelligence ใน iOS 26 โดยให้ AI ช่วยวิเคราะห์วัตถุหรือข้อความที่กล้องเห็น เช่น โปสเตอร์คอนเสิร์ต หรือเมนูร้านอาหาร และสร้างกิจกรรมในปฏิทินให้โดยอัตโนมัติ แต่ในความเป็นจริง Google Lens ที่เปิดตัวครั้งแรกในปี 2017 ก็สามารถทำเช่นนี้ได้แล้ว และในปี 2024 Google ได้ต่อยอดด้วย Project Astra ที่ช่วยตีความและคาดการณ์สิ่งที่ผู้ใช้กำลังสนใจได้แม่นยำกว่า
AI ประมวลผลบนเครื่อง – Apple เพิ่งเริ่ม แต่ Android ทำมาก่อน
แม้ Apple จะชูว่า Apple Intelligence ทำงานบนอุปกรณ์ (on-device AI) เพื่อความเป็นส่วนตัว แต่ทาง Google เองได้เริ่มทดสอบแนวทางนี้ในระดับอุปกรณ์มาตั้งแต่ Pixel 4 ที่เปิดตัวในปี 2019 และพัฒนาให้ลื่นไหลขึ้นใน Pixel 6 และ Pixel 8 ด้วยชิป Tensor ที่ออกแบบมาสำหรับ AI โดยเฉพาะ แม้แต่แบรนด์เจ้าตลาดด้าน AI อย่าง Samsung ก็มีการกำหนดตั้งค่าให้ Galaxy AI ทำงานอยู่แค่บนตัวอุปกรณ์เท่านั้นได้มาตั้งแต่แรกแล้ว
สรุป: จาก “ล้ำ” กลายเป็น “ตาม”
การมาของ iOS 26 ชี้ให้เห็นว่า Apple ไม่ได้เป็นผู้นำในด้านนวัตกรรมซอฟต์แวร์อีกต่อไป แม้จะยังมีความเหนือชั้นในด้านฮาร์ดแวร์และความเสถียร แต่ในแง่ของฟีเจอร์ผู้ใช้ Android ได้สัมผัสสิ่งเหล่านี้มาหลายปีแล้ว และบางส่วนก็พัฒนาไปไกลกว่าด้วยซ้ำ
Apple เคยอ้างว่า iPhone “ล้ำหน้าไป 5 ปี” ตอนเปิดตัว แต่ปีนี้เหมือนคำกล่าวนั้นกลับด้าน เพราะ iOS 26 กลับพยายามไล่ตามนวัตกรรมของ Android ที่เคยเป็นมาตั้งแต่ช่วงปี 2017-2020 และถึงแม้จะมาช้า แต่ก็ต้องยอมรับว่าการนำฟีเจอร์เหล่านั้นมาปรับใช้ในแบบของ Apple อาจทำให้ผู้ใช้รู้สึก “สมบูรณ์” กว่าที่เคยเป็นในฝั่ง Android