JC02 - เคยสงสัยมั้ยว่า AI “เข้าใจ” องค์ความรู้เฉพาะทางได้ยังไง?

less than 1 minute read

Published:

งานวิจัยล่าสุดจาก Microsoft เจาะลึก “เบื้องหลัง” การทำงานของ AI ว่าสิ่งที่มันตอบเรานั้น มาจากการ “จำ” หรือจาก “วิธีคิด” ที่จำเพาะต่อองค์ความรู้เฉพาะทางกันแน่

  1. การศึกษาพบว่า LLMs (Gemma, Phi, Mistral) สร้างสิ่งที่เรียกว่า latent domain-related trajectories ซึ่งเป็นเหมือน “ร่องรอย” ใน hidden states ตั้งแต่เริ่มอ่านคำถาม ซึ่งร่องรอยนี้มันบ่งบอกว่า คำถามนั้นมาจาก domain ไหน เช่น เหมือนเวลาเราอ่านโจทย์เลข ก็จะมี “วิธีคิดแบบเลข” แวบเข้ามาในหัวเลย
  2. นักวิจัยได้ลองป้อนคำถามจากหลากหลาย domain (คณิตศาสตร์, การแพทย์, กฎหมาย) ให้ LLM แล้ววิเคราะห์รูปแบบของ hidden states พบว่าคำถามจาก domain เดียวกันมีรูปแบบที่คล้ายคลึงกันอย่างชัดเจน! ที่น่าสนใจคือ รูปแบบนี้ค่อนข้าง “คงที่” ไม่ว่าจะเปลี่ยนวิธีถาม (prompt) หรือใช้โมเดล LLM ต่างกัน
  3. ที่น่าทึ่งยิ่งกว่าคือ นักวิจัยนำ “ร่องรอย” เหล่านี้มาใช้ “คัดเลือก” โมเดลที่เหมาะสมกับคำถามนั้นๆ และได้ผลลัพธ์ที่ “แม่นยำ” กว่าวิธีเดิมถึง +12.3%! เหมือนมีผู้เชี่ยวชาญคอยแนะนำว่าคำถามนี้ควรปรึกษาใครถึงจะได้คำตอบที่ดีที่สุด
  4. การค้นพบนี้สำคัญอย่างมาก เพราะหากเราเข้าใจ “วิธีคิด” ของ LLM เราก็จะสามารถเลือกใช้โมเดลที่ “ถนัด” ในเรื่องนั้นๆ ได้แม่นยำขึ้น โดยเฉพาะในงานที่ผิดพลาดไม่ได้ เช่น การแพทย์ หรือกฎหมาย นอกจากนี้ยังช่วยให้เราเข้าใจกระบวนการตัดสินใจ (transparency) ของ AI ได้ลึกซึ้งมากขึ้นด้วย

(Paper)