AI Hallucination เกิดจากอะไร?
หลายครั้งที่เราเริ่มใช้ AI แล้วเจอเหมือนกัน
AI ตอบเหมือนมั่นใจมากแต่ข้อมูลจริงกลับผิด
สิ่งนี้เรียกว่า AI Hallucination
จริงๆ แล้ว LLM อย่าง GPT ไม่ได้ “รู้” ว่าอะไรจริงแต่มันทำงานโดยการ
“ทำนายคำถัดไปที่น่าจะเกิดขึ้นมากที่สุด”