JC02 - เคยสงสัยมั้ยว่า AI “เข้าใจ” องค์ความรู้เฉพาะทางได้ยังไง?
Published:
งานวิจัยล่าสุดจาก Microsoft เจาะลึก “เบื้องหลัง” การทำงานของ AI ว่าสิ่งที่มันตอบเรานั้น มาจากการ “จำ” หรือจาก “วิธีคิด” ที่จำเพาะต่อองค์ความรู้เฉพาะทางกันแน่
- การศึกษาพบว่า LLMs (Gemma, Phi, Mistral) สร้างสิ่งที่เรียกว่า latent domain-related trajectories ซึ่งเป็นเหมือน “ร่องรอย” ใน hidden states ตั้งแต่เริ่มอ่านคำถาม ซึ่งร่องรอยนี้มันบ่งบอกว่า คำถามนั้นมาจาก domain ไหน เช่น เหมือนเวลาเราอ่านโจทย์เลข ก็จะมี “วิธีคิดแบบเลข” แวบเข้ามาในหัวเลย
- นักวิจัยได้ลองป้อนคำถามจากหลากหลาย domain (คณิตศาสตร์, การแพทย์, กฎหมาย) ให้ LLM แล้ววิเคราะห์รูปแบบของ hidden states พบว่าคำถามจาก domain เดียวกันมีรูปแบบที่คล้ายคลึงกันอย่างชัดเจน! ที่น่าสนใจคือ รูปแบบนี้ค่อนข้าง “คงที่” ไม่ว่าจะเปลี่ยนวิธีถาม (prompt) หรือใช้โมเดล LLM ต่างกัน
- ที่น่าทึ่งยิ่งกว่าคือ นักวิจัยนำ “ร่องรอย” เหล่านี้มาใช้ “คัดเลือก” โมเดลที่เหมาะสมกับคำถามนั้นๆ และได้ผลลัพธ์ที่ “แม่นยำ” กว่าวิธีเดิมถึง +12.3%! เหมือนมีผู้เชี่ยวชาญคอยแนะนำว่าคำถามนี้ควรปรึกษาใครถึงจะได้คำตอบที่ดีที่สุด
- การค้นพบนี้สำคัญอย่างมาก เพราะหากเราเข้าใจ “วิธีคิด” ของ LLM เราก็จะสามารถเลือกใช้โมเดลที่ “ถนัด” ในเรื่องนั้นๆ ได้แม่นยำขึ้น โดยเฉพาะในงานที่ผิดพลาดไม่ได้ เช่น การแพทย์ หรือกฎหมาย นอกจากนี้ยังช่วยให้เราเข้าใจกระบวนการตัดสินใจ (transparency) ของ AI ได้ลึกซึ้งมากขึ้นด้วย
(Paper)