เมื่อเรามองย้อนกลับไปในช่วงสองทศวรรษที่ผ่านมา วิธีการค้นหาข้อมูลบนอินเทอร์เน็ตแทบจะไม่เปลี่ยนไปมากนัก ผู้ใช้พิมพ์คำค้นลงไป แล้วรับคำตอบในรูปแบบของลิงก์จำนวนมากที่ต้องคลิกเข้าไปอ่านเพิ่มเติม แต่ขณะนี้ Google กำลังซุ่มพัฒนาฟีเจอร์ใหม่ที่อาจเปลี่ยนวิธีการค้นหาไปตลอดกาล ด้วยประสบการณ์ Live Chat Search ที่ให้ผู้ใช้ “พูดคุยกับข้อมูล” แทนการ “พิมพ์คำค้น”
ฟีเจอร์ใหม่ที่ชื่อว่า “Live” ซึ่งซ่อนอยู่ในแอป Google เวอร์ชันเบต้า แสดงให้เห็นทิศทางใหม่ที่ Google กำลังมุ่งไป นั่นคือการทำให้การค้นหากลายเป็นประสบการณ์ที่มีลักษณะของบทสนทนา เสริมด้วยความสามารถของ AI อย่าง Gemini ซึ่งรองรับการเข้าใจภาษาธรรมชาติ วิเคราะห์เจตนา และตอบสนองต่อคำถามได้อย่างแม่นยำและเป็นธรรมชาติ
ในบทความนี้
AI Search บนพื้นฐานการแชต: เทรนด์ใหม่ที่ทุกคนกำลังมองหา
ไม่ใช่แค่ Google เท่านั้นที่เดินหน้าสู่โลกของ AI Conversation Search — หลายแพลตฟอร์มกำลังเร่งพัฒนาบริการที่ให้ผู้ใช้ค้นหาข้อมูลด้วยการสนทนา เช่นเดียวกับที่คุยกับผู้ช่วยส่วนตัวที่ฉลาดล้ำ ตัวอย่างที่เด่นชัดคือ:
-
ChatGPT ของ OpenAI ที่พัฒนาให้สามารถค้นหาข้อมูลร่วมกับเว็บได้ผ่านฟีเจอร์ Browse with Bing และเข้าใจคำถามในบริบทที่หลากหลาย
AdvertisementAdvertisementAdvertisement -
Microsoft Copilot ซึ่งผสานรวมการค้นหาด้วย AI เข้ากับ Windows, Edge และ Microsoft 365 โดยเน้นให้ผู้ใช้สามารถโต้ตอบกับข้อมูลแบบเรียลไทม์ได้ในระดับองค์กร
-
Perplexity AI ที่ถูกพูดถึงมากขึ้นเรื่อย ๆ จากความสามารถในการสรุปข้อมูล พร้อมแนบแหล่งอ้างอิง และโต้ตอบได้ต่อเนื่อง
เครื่องมือเหล่านี้ทำให้ผู้ใช้ไม่จำเป็นต้องไล่คลิกหาคำตอบอีกต่อไป แต่สามารถ ถาม-ตอบ และขยายความเข้าใจได้ในหน้าต่างเดียว ถือเป็นเทรนด์ที่กำลังได้รับความนิยมอย่างรวดเร็ว โดยเฉพาะในกลุ่มนักเรียน นักวิจัย คนทำงาน และผู้ที่ต้องการคำตอบแบบรวบรัดทันใจ
Google Live: เมื่อยักษ์ใหญ่ลงสนามอย่างจริงจัง
แม้ Google จะยังไม่เปิดตัว “Live” อย่างเป็นทางการ แต่การที่ฟีเจอร์นี้เริ่มปรากฏในแอป Google เบต้า พร้อมโลโก้เดียวกับ Gemini Live บนมือถือ แสดงให้เห็นว่า Google ตั้งใจจะสร้าง “Live” ให้เป็นหัวใจหลักของบริการค้นหาในอนาคต
ผู้ใช้จะสามารถโต้ตอบกับผลลัพธ์การค้นหาผ่านแชตอย่างลื่นไหล มีบริบท และเปลี่ยนโทนเสียงให้เหมาะกับสถานการณ์ได้ ไม่ว่าจะเป็นการค้นหาข้อมูลทั่วไป ถามคำถามเชิงเทคนิค แปลภาษา หรือแม้แต่ปรึกษาปัญหาทางสุขภาพหรือการศึกษา
ยุคใหม่ของการค้นหาเริ่มต้นขึ้นแล้ว
สิ่งที่กำลังเกิดขึ้นในตอนนี้คือ “การเปลี่ยนจากการค้นหาแบบพิมพ์ มาเป็นการพูดคุยกับข้อมูล” ผู้ใช้ไม่จำเป็นต้องรู้ว่าจะพิมพ์คำว่าอะไรเพื่อให้ได้ผลลัพธ์ที่ดีที่สุด แต่สามารถถามในแบบที่ตัวเองเข้าใจ และ AI จะช่วยตีความ แปลงความต้องการนั้นให้เป็นคำตอบที่แม่นยำ — เราอาจเรียกมันว่า Conversation-first Search Experience
ไม่ว่าจะเป็น Google, Microsoft, OpenAI หรือผู้เล่นรายใหม่อย่าง Anthropic และ Perplexity ต่างก็กำลังเร่งพัฒนาเทคโนโลยีการค้นหาแบบโต้ตอบนี้ให้ดีขึ้นทุกวัน หาก “Live” ของ Google เปิดตัวเต็มรูปแบบเมื่อใด นั่นอาจเป็นจุดเปลี่ยนสำคัญที่ทำให้การค้นหาแบบเดิม ๆ ที่พวกเราคุ้นเคยต้องหลีกทางให้กับ AI ที่พูดคุยได้จริง
เหตุผลที่ Google ไม่ผสาน AI เข้ากับ Search อย่างเต็มรูปแบบตั้งแต่แรก
1. การปกป้องรายได้จากโฆษณา Search Ads
Google สร้างรายได้มหาศาลจาก โฆษณาบนหน้า Search ซึ่งอิงกับการแสดง “ลิงก์” ที่ผู้ใช้คลิก เช่นโฆษณา Google Ads, Shopping หรือ Sponsored Result การเปลี่ยนไปใช้ AI แบบให้คำตอบทันที (เช่น Chatbot หรือ Summary) อาจลดความจำเป็นที่ผู้ใช้จะคลิกลิงก์ ส่งผลกระทบต่อโมเดลรายได้หลักโดยตรง
นี่คือความขัดแย้งที่เรียกว่า “The Innovator’s Dilemma” — บริษัทที่ครองตลาดเดิมไม่อยากทำลายระบบที่ทำให้ตัวเองประสบความสำเร็จ แม้ว่ารูปแบบใหม่จะดีกว่าในเชิงเทคโนโลยี
2. AI ยังไม่เสถียรพอในช่วงแรก
แม้ Google มีเทคโนโลยี AI ที่ล้ำหน้า เช่น LaMDA, PaLM, Gemini มานานหลายปี แต่ในช่วงแรก AI ยังมี ปัญหาเรื่องความแม่นยำ ความรับผิดชอบ และความลำเอียง หากนำมาใช้ตอบคำถามผู้ใช้โดยตรง อาจเสี่ยงให้ Google เสียความน่าเชื่อถือในฐานะแหล่งข้อมูลอันดับหนึ่งของโลก
โดยเฉพาะกับคำถามสำคัญ เช่น การแพทย์ การเงิน หรือข่าวสารผิดพลาดเพียงนิดเดียว อาจสร้างความเสียหายมหาศาลทั้งในแง่ความเชื่อมั่นและด้านกฎหมาย
3. ข้อจำกัดด้านโครงสร้างพื้นฐาน
AI แบบ Large Language Model (LLM) เช่น ChatGPT หรือ Gemini มีต้นทุนสูงมากในการประมวลผลแต่ละคำถาม (Inference Cost) ต่างจาก Search เดิมที่มีระบบแคช และการจัดอันดับล่วงหน้า การให้ “AI แบบ Chat” แก่ผู้ใช้ทุกคนในทันทีจึงไม่คุ้มค่าในเชิงเทคนิคสำหรับผู้ใช้งานหลายพันล้านคน
4. การเตรียมความพร้อมของผู้ใช้
การค้นหาแบบแชตยังถือว่าเป็น พฤติกรรมใหม่ สำหรับผู้ใช้งานทั่วไป Google ต้องใช้เวลาในการ “สอน” หรือทำให้คนคุ้นชินกับรูปแบบนี้ทีละขั้น เช่น เริ่มจากฟีเจอร์ AI Overview ก่อน ขยายไปยัง Gemini บนมือถือ และล่าสุดคือ “Live” ใน Search
เป้าหมายคือการเปลี่ยนผ่านอย่างค่อยเป็นค่อยไป ไม่ให้ผู้ใช้รู้สึกว่า “Google เปลี่ยนไปจนใช้ไม่เป็น”
5. การรอจังหวะตอบโต้อย่างมั่นใจ
แม้ OpenAI จะเปิดตัว ChatGPT และเร่งการแข่งขันด้าน AI มาตั้งแต่ปลายปี 2022 แต่ Google เลือก “รอเวลา” เพื่อพัฒนาระบบให้พร้อมในเชิงวิศวกรรมและแบรนด์อย่างรอบคอบ ก่อนจะเปิดตัว Gemini อย่างเป็นทางการในปลายปี 2023 และขยายสู่ระบบค้นหาปี 2024–2025
สรุป
แม้ Google จะเป็นเจ้าตลาดและได้เปรียบในธุรกิจ Search Engine และไม่ได้ขาดความสามารถในการผสาน AI เข้ากับ Search — แต่เขาเลือก รอเวลา เพื่อรักษาความน่าเชื่อถือ โมเดลรายได้ และความมั่นคงของผู้ใช้ในระยะยาว
พูดง่าย ๆ คือ Google ไม่ต้องรีบ “เป็นที่หนึ่ง” ในแง่ของการเปิดตัว AI แต่เลือกจะ “เป็นที่หนึ่ง” ในการผสาน AI อย่างถูกวิธี โดยที่ธุรกิจของตัวเองมีความมั่นคง