Explainable AI (XAI)

Explainable AI (XAI)
by Leonardo.ai

AI มีความเกี่ยวข้องกับชีวิตประจำวันของเรามากขึ้น แต่มีข้อกังวล คือ การตัดสินใจจาก AI เป็นเรื่องที่ผู้ใช้เข้าใจได้ยาก

ดังนั้น Explainable AI หรือ XAI มีเป้าหมายที่จะทำให้การตัดสินใจเหล่านี้โปร่งใสและเข้าใจได้ง่ายขึ้น

XAI คืออะไร?

AI แบบดั้งเดิมนั้นเปรียบเสมือน "Black boxes" ซึ่งใช้ขั้นตอนวิธีที่ซับซ้อนโดยไม่อธิบายว่าทำงานอย่างไร ทำให้ยากต่อการเข้าใจผลลัพธ์

XAI มีเป้าหมายที่จะทำให้กระบวนการมีความโปร่งใส ช่วยให้คนเข้าใจว่าทำไม AI จึงเลือกทางเลือกนั้น XAI ใช้ Model อย่างง่ายๆ และการ Visualization เพื่ออธิบายกระบวนการต่างๆ

ความจำเป็นในเรื่อง Explainability

มีหลากหลายเหตุผล เพื่อที่จะอธิบายระบบ AI เหตุผลที่สำคัญ คือ

  • Trust (ความไว้วางใจ): กระบวนการที่โปร่งใสช่วยให้มั่นใจว่าการตัดสินใจนั้นยุติธรรม ซึ่งจะทำให้ผู้ใช้ไว้วางใจและยอมรับผลลัพธ์ที่เกิดขึ้น
  • Fairness (ความยุติธรรม): กระบวนการที่โปร่งใสช่วยป้องกันผลลัพธ์ที่ไม่ยุติธรรมหรือเลือกปฏิบัติ และป้องกันผลลัพธ์ที่อาจมีความลำเอียง
  • Accountability (ความรับผิดชอบ): การอธิบายได้ช่วยให้เราตรวจสอบการตัดสินใจได้
  • Safety (ความปลอดภัย): XAI ช่วยระบุและแก้ไขข้อผิดพลาด ซึ่งเป็นสิ่งสำคัญในการป้องกันผลลัพธ์ที่เป็นอันตราย

เทคนิคใน AI ที่สามารถอธิบายได้

เทคนิคที่ใช้ได้กับทุก AI Models

  • LIME (Local Interpretable Model-agnostic Explanations): LIME ช่วยลดความซับซ้อนของ Model สำหรับการทำนายแต่ละรายการ โดยสร้าง Model ที่เรียบง่ายเพื่อแสดงให้เห็นว่าการเปลี่ยนแปลงของ Input เพียงเล็กน้อยส่งผลต่อผลลัพธ์อย่างไร
  • SHAP (คำอธิบายแบบบวกของ SHapley): SHAP ใช้ทฤษฎีเกมเพื่อกำหนดคะแนนความสำคัญให้กับแต่ละ Feature โดยจะแสดงให้เห็นว่าแต่ละ Feature ส่งผลต่อการทำนายขั้นสุดท้ายอย่างไร


เทคนิคใช้ได้กับบาง AI Models (Algorithms)

  • Decision Tree: แบ่งข้อมูลออกเป็น Branch ต่างๆ เพื่อใช้ในการตัดสินใจ โดยแต่ละ Branch จะแสดงกฎของ Feature และ Leaf node จะแสดงผลลัพธ์
  • Rule-Based Model: โมเดลเหล่านี้ใช้กฎง่ายๆ เพื่ออธิบายการตัดสินใจ กฎแต่ละข้อจะระบุเงื่อนไขที่นำไปสู่ผลลัพธ์

เทคนิค Feature Visualization เพื่อแสดงให้เห็นว่า Features ต่างๆ ส่งผลต่อการตัดสินใจของ AI อย่างไร

  • Saliency Maps: จะเน้นบริเวณสำคัญในภาพที่ส่งผลต่อการ Predict ของ AI
  • Activation Maps: จะแสดงส่วนต่างๆ ของ Neural Network ที่ทำงานระหว่างการตัดสินใจ

ความท้าทายของ XAI

  • Complex Model: AI model บางอันมีความซับซ้อนมาก ทำให้อธิบายได้ยาก
  • Accuracy vs Explainability: มักมี Trade off ระหว่าง Accuracy และ Explainability การมีประสิทธิภาพที่ดี (Accuracy สูง) มักอธิบายได้ยาก
  • มาตรฐาน (Standard): ไม่มีวิธีการเดียวสำหรับการอธิบาย AI ในอุตสาหกรรมต่างๆ อาจใช้วิธีการที่แตกต่างกัน
  • ความซับซ้อนในการคำนวณ (Computational Cost): คำอธิบายโดยละเอียดต้องใช้ทรัพยากรในการคำนวณที่เพิ่มขึ้น อาจทำให้กระบวนการล่าช้าและมีค่าใช้จ่ายสูง

ข้อมูลอ้างอิง https://www.kdnuggets.com/an-introduction-to-explainable-ai-xai