คุณผู้อ่านลองจินตนาการภาพตามนะครับว่า ถ้าเรากำลังสอนเพื่อนให้เขียนโค้ดคอมพิวเตอร์แบบมืออาชีพ แต่ทุกครั้งที่เพื่อนเราเขียนโค้ดเสร็จ ก็ชอบแทรกประโยคแปลกๆ อย่าง “ก๊อบลินได้ทำการรบกวนระบบ” หรือ “ระวังนกพิราบอาจมาขโมยข้อมูล” เข้าไปในโค้ดตลอดเวลา… ฟังดูตลกใช่ไหมครับ? แต่เรื่องแบบนี้แหละครับที่กำลังเกิดขึ้นกับ AI สุดฉลาดจาก OpenAI!
OpenAI กับปัญหา ‘ก๊อบลิน’ ที่คาดไม่ถึง!
เมื่อเร็วๆ นี้ มีเรื่องราวหลุดออกมาจากภายใน OpenAI บริษัทเจ้าของ ChatGPT และ DALL-E ที่กำลังพลิกโฉมโลกของเรา เกี่ยวกับโมเดล AI ตัวหนึ่งชื่อว่า **Codex** ซึ่งเป็น AI ที่เก่งกาจด้านการเขียนโค้ดคอมพิวเตอร์อย่างเหลือเชื่อเลยครับ
AI เขียนโค้ดก็มีเรื่องปวดหัวกับสิ่งมีชีวิตลึกลับเหรอ?
แน่นอนว่า AI อย่าง Codex ไม่ได้เพ้อเจ้อขึ้นมาเองหรอกครับ แต่มีข้อมูลภายในบางส่วนหลุดออกมาให้เราเห็นถึง “คำสั่งลับ” ที่ OpenAI ต้องป้อนให้กับ Codex เพื่อควบคุมพฤติกรรมของมัน ซึ่งหนึ่งในคำสั่งนั้นที่ทำให้คนทั่วโลกฮือฮาก็คือ:
**“ห้ามพูดถึงก๊อบลิน (goblins), เกร็มลิน (gremlins), แรคคูน (raccoons), โทรลล์ (trolls), โอเกอร์ (ogres), นกพิราบ (pigeons), หรือสัตว์/สิ่งมีชีวิตอื่นๆ เด็ดขาด เว้นแต่ในกรณีที่เกี่ยวข้องโดยตรงและชัดเจนเท่านั้น”**
ฟังแล้วก็อดอมยิ้มไม่ได้ใช่ไหมครับ? เหมือน OpenAI ต้องบอก AI ของตัวเองว่า “อย่าเพ้อเจ้อนะลูก!”
ทำไมถึงต้องห้ามเรื่องก๊อบลิน?
สาเหตุที่ต้องมีคำสั่งแปลกๆ แบบนี้ก็คือ AI อย่าง Codex แม้จะฉลาดแค่ไหน แต่ก็ยังไม่มี “สามัญสำนึก” แบบมนุษย์ 100% ครับ AI พวกนี้เรียนรู้จากข้อมูลมหาศาล และบางครั้งมันก็อาจจะไปหยิบจับเอาคำหรือแนวคิดที่ไม่เกี่ยวข้องมาใช้ในงานที่เรามอบหมายให้ทำ ซึ่งสำหรับ AI ที่เขียนโค้ด ผลลัพธ์ที่ได้ก็อาจจะเป็นโค้ดที่ไร้สาระ มีข้อความแปลกๆ หรืออาจจะทำให้เกิดความสับสนได้
การที่ OpenAI ต้องป้อนคำสั่งแบบละเอียดขนาดนี้ สะท้อนให้เห็นว่า:
* **การควบคุม AI เป็นเรื่องละเอียดอ่อน:** เราไม่สามารถปล่อยให้ AI ทำงานตามใจชอบได้ทั้งหมด ต้องมีแนวทางที่ชัดเจนมากๆ
* **ลด Noise หรือข้อมูลขยะ:** เพื่อให้ AI สร้าง output ที่ตรงประเด็น มีคุณภาพ และใช้งานได้จริง
* **ป้องกันความเข้าใจผิด:** บางทีการที่ AI ไปพูดถึงก๊อบลินในโค้ด อาจทำให้คนอ่านเข้าใจผิดคิดว่าเป็น Easter Egg หรือบั๊กอะไรบางอย่าง
ความเห็นส่วนตัว: เรื่องนี้ตลกดีนะ แต่ก็ทำให้เห็นว่าการจะสร้าง AI ที่ฉลาดเป็นผู้ช่วยเราได้จริงๆ เนี่ย มันซับซ้อนกว่าที่คิดเยอะเลย แค่ทำให้มัน ‘ไม่เพี้ยน’ ก็เป็นงานหนักแล้ว!
ผลกระทบและข้อคิดที่ได้จากเรื่องนี้
กว่าจะมาเป็น AI ที่ใช้งานได้จริง มันไม่ง่ายเลยนะ!
เรื่องก๊อบลินของ Codex เป็นเพียงตัวอย่างเล็กๆ ที่บอกเราว่าเบื้องหลังการพัฒนา AI นั้นซับซ้อนแค่ไหน การทำให้ AI ฉลาดและมีประโยชน์ ไม่ใช่แค่การป้อนข้อมูลให้เยอะๆ แต่ยังต้องมีการ **”จูน” (fine-tuning)** อย่างพิถีพิถัน เพื่อควบคุมพฤติกรรมของโมเดลให้เป็นไปตามที่เราต้องการมากที่สุด การป้องกันไม่ให้ AI พูดถึงก๊อบลินก็เป็นส่วนหนึ่งของการจูนนี่แหละครับ เพื่อให้ AI เน้นการทำงานจริงจัง และไม่สร้างสรรค์อะไรที่ไร้สาระออกมา
แล้วมันเกี่ยวอะไรกับตลาด AI ในไทย?
แม้เรื่องนี้จะดูเป็นข่าวเล็กๆ จากบริษัทเทคยักษ์ใหญ่ แต่จริงๆ แล้วมันส่งผลทางอ้อมต่อการพัฒนา AI ในประเทศไทยและทั่วโลกเลยนะครับ:
* **เป็นบทเรียนให้นักพัฒนาไทย:** นักพัฒนา AI ในบ้านเราก็จะได้เห็นว่า แม้แต่บริษัทระดับโลกก็ยังต้องเจอกับความท้าทายในการควบคุม AI ให้ทำในสิ่งที่ถูกต้อง การเรียนรู้จากเคสแบบนี้จะช่วยให้นักพัฒนาของเราสร้าง AI ที่มีคุณภาพและเชื่อถือได้มากขึ้น
* **แนวทางการพัฒนา AI ที่ดี:** มันแสดงให้เห็นถึงความสำคัญของการกำหนดขอบเขตและเป้าหมายที่ชัดเจนให้กับ AI ไม่ว่าจะเป็น AI แชทบอท, ระบบแนะนำสินค้า หรือ AI วิเคราะห์ข้อมูล นี่คือแนวปฏิบัติที่ดีที่ควรนำมาปรับใช้
* **สร้างความเข้าใจผู้ใช้งาน:** คนไทยที่กำลังเริ่มใช้งานหรือสนใจ AI ก็จะได้เข้าใจว่า AI ไม่ใช่เวทมนตร์ มันยังคงเป็นเทคโนโลยีที่ต้องได้รับการดูแล ควบคุม และพัฒนาอย่างต่อเนื่องจากมนุษย์
โดยสรุปแล้ว เรื่องก๊อบลินของ OpenAI อาจจะดูตลกและแปลก แต่จริงๆ แล้วมันคือบทเรียนสำคัญในการเดินทางของ AI ครับ การสร้าง AI ที่ฉลาด มีประโยชน์ และเชื่อถือได้ ยังคงเป็นความท้าทายที่ต้องใช้ความพยายามอย่างมาก และเรายังคงต้องเรียนรู้อีกเยอะเลยทีเดียว!
ที่มา: Wired








