Google ได้ออกมาสรุปข่าวความเคลื่อนไหวด้าน AI ของบริษัทในเดือนธันวาคม พวกเขาได้เปิดตัว Gemini 3 Flash และฟีเจอร์ใหม่ที่ผู้ใช้สามารถตรวจสอบวิดีโอที่สร้างด้วย AI ได้ด้วยแอป Gemini โดยตรง
ในตลอดกว่า 20 ปีที่ผ่านมา Google ลงทุนด้านแมชชีนเลิร์นนิงและ AI อย่างต่อเนื่อง และในเดือนธันวาคมนี้ บริษัทเลือกโฟกัสไปที่การนำ “Frontier Intelligence” ออกจากห้องแล็บสู่ผู้ใช้ทั่วไป โดยเน้นความเร็ว ความเข้าใจบริบท และความรับผิดชอบในการใช้งาน AI ซึ่งความสามารถใหม่ได้ถูกเผยผ่านหน้าเว็บของ Google แล้วในวันนี้ มีอะไรที่น่าสนใจบ้างไปดูกัน
Gemini 3 Flash: โมเดลเรือธงที่เน้นความเร็วและการใช้งานจริง
Google เปิดตัว Gemini 3 Flash โมเดล AI ระดับ Frontier ที่ออกแบบมาเพื่อการตอบสนองรวดเร็วและการใช้เหตุผลที่ดีขึ้น โดยถูกนำมาใช้เป็นโมเดลเริ่มต้นในแอป Gemini และโหมด AI Search ช่วยให้ผู้ใช้ทั่วไปเข้าถึงความสามารถระดับเดียวกับโมเดลขั้นสูงได้โดยตรง นอกจากนี้ยังเปิดให้ใช้งานผ่านแพลตฟอร์มพัฒนา Antigravity API และ Vertex AI สำหรับนักพัฒนาและองค์กร
ความสามารถในการตรวจสอบวิดีโอด้วย AI ในแอป Gemini
Google เพิ่มเครื่องมือยืนยันแหล่งที่มาของวิดีโอในแอป Gemini ผู้ใช้สามารถอัปโหลดวิดีโอขนาดไม่เกิน 100MB หรือยาว 90 วินาที เพื่อสอบถามว่าวิดีโอดังกล่าวถูกสร้างหรือแก้ไขด้วย AI หรือไม่ ระบบจะใช้ลายน้ำดิจิทัล SynthID วิเคราะห์ทั้งภาพและเสียง พร้อมระบุช่วงเวลาที่มีองค์ประกอบจาก AI อย่างชัดเจน
แน่นอนว่าการตรวจสอบที่มาของเนื้อหาวิดีโอซึ่งอาจถูกสร้างหรือแก้ไขด้วย AI ในปัจจุบัน ยังไม่ใช่กระบวนการที่สะดวกหรือให้ความแม่นยำได้อย่างสมบูรณ์ การตรวจพบยังไม่สามารถรับประกันความถูกต้องได้ 100% โดยเฉพาะเมื่อเทคโนโลยีสร้างสื่อด้วย AI มีการพัฒนาอย่างรวดเร็วและซับซ้อนมากขึ้น
ด้วยเหตุนี้ อุตสาหกรรมอาจจำเป็นต้องก้าวไปสู่การกำหนด “มาตรฐานร่วม” สำหรับเครื่องมือ AI ที่ใช้สร้างวิดีโอและสื่อดิจิทัลในอนาคต ไม่ว่าจะเป็นการฝังอัตลักษณ์ดิจิทัล ลายน้ำที่มองไม่เห็น หรือเมทาดาทาเฉพาะ ที่สามารถใช้เป็นตัวบ่งชี้แหล่งที่มาได้ตั้งแต่ต้นทาง เพื่อให้การตรวจสอบความถูกต้องของเนื้อหาทำได้ง่ายและเป็นระบบมากขึ้น
ประเด็นนี้กำลังกลายเป็นเรื่องสำคัญที่มีความละเอียดอ่อนอย่างยิ่งในโลกปัจจุบัน เนื่องจากวิดีโอที่ถูกสร้างหรือดัดแปลงด้วย AI สามารถส่งผลกระทบต่อความน่าเชื่อถือของข้อมูล ข่าวสาร สังคม และแม้กระทั่งกระบวนการตัดสินใจในระดับบุคคลและระดับสาธารณะ การมีเครื่องมือและมาตรฐานที่ชัดเจนในการยืนยันแหล่งที่มาของคอนเทนต์ จึงอาจเป็นหนึ่งในรากฐานสำคัญของระบบนิเวศดิจิทัลในยุค AI ต่อจากนี้
ยังมีความสามารถ AI ด้านอื่นๆ ที่ทาง Google ได้ประกาศออกมาพร้อมกันทางหน้าเว็บ เช่น
Gemini ช่วยจัดการงานและการท่องเว็บที่ซับซ้อน
Google Labs เปิดตัว Disco ประสบการณ์ท่องเว็บรูปแบบใหม่ พร้อมฟีเจอร์ GenTabs ที่ช่วยสรุปและเชื่อมโยงแท็บจำนวนมากให้กลายเป็นแอปหรือเครื่องมือเฉพาะงาน ลดความยุ่งยากจากการเปิดแท็บจำนวนมากระหว่างค้นคว้าหรือวางแผนงาน
อัปเกรดโมเดลเสียง และแปลภาษาสดผ่าน Google Translate
Google อัปเกรด Gemini 2.5 Flash Native Audio ให้รองรับบทสนทนาและเวิร์กโฟลว์ที่ซับซ้อนมากขึ้น พร้อมเปิดใช้งานใน AI Studio, Vertex AI, Gemini Live และ Search Live ขณะเดียวกัน Google Translate เริ่มทดสอบฟีเจอร์แปลเสียงแบบเรียลไทม์ผ่านหูฟัง รองรับมากกว่า 70 ภาษา โดยยังคงโทนเสียงและจังหวะการพูดของต้นฉบับ
Gemini Deep Research และเครื่องมือสำหรับนักพัฒนา
Google เปิดให้ใช้งาน Gemini Deep Research ผ่าน Interactions API ช่วยให้นักพัฒนานำความสามารถด้านการค้นคว้า วิเคราะห์ และสังเคราะห์ข้อมูลเชิงลึกไปฝังในแอปของตนเอง พร้อมเปิดโอเพนซอร์ส DeepSearchQA benchmark เพื่อใช้ทดสอบประสิทธิภาพเอเจนต์วิจัยบนเว็บ
AI กับการช้อปปิ้งและคอนเทนต์สรุปปลายปี
ผู้ใช้ในสหรัฐฯ สามารถทดลอง Virtual Try-On เวอร์ชันใหม่ เพียงอัปโหลดเซลฟี่ ระบบจะสร้างอวตารเต็มตัวเพื่อทดลองเสื้อผ้าจากฐานข้อมูล Shopping Graph นอกจากนี้ Google ยังปล่อย Year in Search 2025, YouTube Recap และ Google Photos Recap เวอร์ชันใหม่ ที่ใช้ AI ช่วยสรุปและปรับแต่งประสบการณ์ย้อนหลังให้ตรงกับผู้ใช้มากขึ้น
โดยภาพรวม Google ระบุว่าทิศทาง AI ในช่วงปลายปี 2025 คือการทำให้เทคโนโลยี “ปรับเข้าหาผู้ใช้” มากขึ้น ทั้งด้านความเร็ว ความเข้าใจ และความน่าเชื่อถือ พร้อมวางรากฐานสำหรับการใช้งาน AI ในวงกว้างยิ่งขึ้นในปีถัดไป








