AI Hallucination: เมื่อ AI เกิดการหลอน สาเหตุและแนวทางการแก้ไข
เราจะทำอย่างไรเมื่อสิ่งต่างๆ ที่ Generative AI อย่าง ChatGPT, Google Bard หรือผลลัพธ์ที่ได้จาก LLM อื่นๆ ไม่ถูกต้อง หรือเป็นผลลัพธ์ที่ถูกสร้างขึ้นมาอย่างไม่เป็นความจริง ซึ่งสิ่งนี้นับว่าเป็น Challenge สำหรับผู้ใช้งานทุกภาคส่วน ไม่ว่าจะเป็นนักธุรกิจ องค์กร นักวิเคราะห์ข้อมูล หรือแม้กระทั่งนักเรียนนักศึษาที่ใช้ AI ทำการบ้าน โดยอาการ AI แต่งเรื่องหรือ Provide ผลลัพธ์ที่ผิดๆ และไม่เป็นความจริงนี้ถูกเรียกว่า AI Hallucination หรือพูดง่ายๆ ค่ะว่า AI เกิดการหลอนปั้นคำตอบแบบมั่วเต็มที่ขึ้นมานั่นเอง
และสิ่งนี้ถือเป็นประเด็นสำคัญที่ Generative AI user อย่างพวกเราควรที่่จะต้องทำความเข้าใจถึงสาเหตุ ว่าทำไมถึง AI ถึงมีอาการ “หลอน” หรือ “Hallucinated” ขึ้นมาได้
ซึ่งในตอนที่นิกได้ยินคำว่า AI หลอน ครั้งแรก ก็อดไม่ได้ที่จะเชื่อมโยงไปถึงอาการ “หลอน” ของคนเราที่แสดงออกมาเป็นพฤติกรรม Disorder แบบต่างๆ เพราะ AI Hallucination ก็มีอาการคล้ายกัน ตรงที่ตัวโมเดลให้คำตอบที่เป็นเท็จออกมาแล้วหลอนตัวโมเดลเองว่าคำตอบนั้นคือความจริง (แบบมั่นใจสุดๆ),,,, แล้วสรุปว่า AI Hallucinated คืออะไรกันแน่ล่ะ? มีสาเหตุมาจากอะไร? แล้วเราจะสามารถตรวจสอบได้อย่างไรว่ามีการ Hallucinated อยู่? และท้ายสุด สามารถป้องกันได้ไหม? =>> ซึ่งคำตอบทั้งหมดทั้งมวลอยู่ในบทความนี้ค่ะ^^
อะไรคือ AI Hallucination?
อาการหลอนขอ AI คือการที่โมเดล AI ทำการ Generate ข้อมูลที่ไม่ถูกต้องหรือเป็นเท็จออกมา แล้วแสดงเป็นผลลัพธ์แก่ User ด้วยความมั่นใจว่าข้อมูล (ซึ่งในที่นี้คือ Results ที่ถูกสร้างขึ้้นมาเพื่อโต้ตอบกับ User) นั้นถูกต้อง
ซึ่งอาการ Hallucinated ของ AI สามารถเกิดได้จากหลายสาเหตุด้วยกัน ได้แก่
การเกิด Bias จากชุดข้อมูลที่นำไป Train ML Model ซึ่งสามารถเกิดได้ทั้งจากการเก็บข้อมูลจากกลุ่มตัวอย่าง หรือประชากรมาได้ไม่ดีพอ ขาด Features สำคัญที่นำมาใช้ Train
เกิดจากการเลือก AI Methods ที่ไม่เหมาะสมสำหรับชุดข้อมูล ซึ่งทำให้ผลลัพธ์ที่ได้ออกมาขาดความแม่นยำ หรือไม่สามารถใช้กับชุดข้อมูลลักษณะก่อนหน้าได้
สำหรับ LLM สามารถเกิดได้จากการขาดบริบทองค์ประกอบของประโยคที่ User ป้อนมา
โดยอาการนี้สามารถเกิดได้ทั้งกับ Generative AI ที่เป็นการแต่งประโยคใหม่ หรือด้านการเรียนรู้ จดจำและสร้างภาพได้ทั้งคู่ค่ะ
AI Hullucination เกิดจากอะไร?
อาการหลอนของ Generative AI ที่มาจาก LLM (Large Language Model, โมเดลภาษาขนาดใหญ่) ซึ่งเป็นโมเดลที่ทำให้ AI สามารถประมวลผลภาษาได้เหมือนมนุษย์ ที่ถึงแม้ว้า LLM จะถูกออกแบบมาให้สามารถตอบสนองต่อการใช้งานได้อย่างรวดเร็ว สอดคล้องกับบริบท แต่ทุกท่านอย่าลืมนะคะว่า อย่างไรก็ตาม LLM ไม่ได้มีความเข้าใจด้านภาษาเช่นเดียวกับมนุษย์ หรือไม่เข้าใจความหมายแฝงที่ถูกซ่อนอยู่ แต่สิ่งที่ LLM จะทำก็เป็นเพียงการพยายาม “เดา” ค่ะว่า คำต่อไปควรจะเป็นคำอะไร แบบไม่คำนึงถึงความหมายเลยแม้แต่น้อย (‾◡◝)
Hi, I am Nick,,,,Panaya Sudta (●'◡'●)
Engineer during the daytime. Researcher at night. Reader in spare time. (❁´◡`❁) วิศวกร/นักวิจัย/ Market research ค่ะ หวังเป็นอย่างยิ่งว่าจะได้แชร์มุมมองกันนะคะ
เดิมทีปัญหานี้ผมไม่รู้จะเรียกทางการยังไง ปกติเรียกเพี้ยนเฉยๆ เพิ่งได้รู้ก็วันนี้แหละ
เสริมเนื้อหาเพิ่มผมได้ศึกษาความเพี้ยนหลอนของ AI พวก GPT และ Bing รูปแบบนึงว่าหากเราใช้งานระยะนึง AI จะเริ่มนอกเรื่องหรือไม่สามารถจะคงการทำงานที่เกี่ยวข้องกับเนื้อหาก่อนหน้า จะเกี่ยวกับ prompt น้อยมาก จำเรื่องที่ GPT บอกว่าไม่สามารถเข้าถึงข้อมูลในแชทอื่นที่เราเคยใช้ได้เพราะติดเรื่องกฏการรักษาข้อมูลของผู้ใช้ได้ไหมครับ เรื่องนี้เป็นปัจจัยหลักครับ แต่ว่ามันไม่ใช่เนื้่อหาระดับแชทเก่าเ่ท่านั้น แต่รวมถึงข้อความที่มันเพิ่งพูดมาด้วย หากวา Session end เมื่อไหร่ มันจะเป็นตัวอื่นที่จำอะไรก่อนหน้านั้นไม่ได้เล และการควบคุมนี้ก็ทำให้มันย้อนไปต่อเนื้อหาไม่ได้ และมั่วเรื่องแทน ผมลองหาทางถามจนมันอธิบายเรื่อง session ว่าทำให้มันไม่เป็นตัวเดียวกับก่อนรีเซ็ท โดนควบคุมการเข้าถึงเนื้อหาอื่นที่นอก session ของมัน แต่ที่สังเกตผมรู้สึกว่ามันจะค่อยๆลืมมากกว่าอาจเป็นการสุ่มระดับการเข้าถึงก็เป็นไปได้ เรื่องนี้ผมบังเอิญพบว่าเกิดขึ้นบ่อยตอนที่เรียนแล้วทำแบบฝึกหัดที่สร้างให้ พอเราส่งคำตอบ ให้ตรวจจะตรวจผิด อย่างข้อที่เลือกถูก แต่เนื้อหาของเรื่องผิด หรือมันมั่วคำตอบเราตอนตรวจทั้งที่เราตอบถูก แต่มันจำไม่ได้ ผมเลยเริ่มทำซ้ำๆหาอัตราการเกิด คือบ่อยมาก ถ้าจะเลี่ยงหรือลดอาการนี้ก็ต้องทำข้อสอบจำนวนน้อยๆ บ่อยๆแทน หรือหากเกิดขึ้นระหว่างใช้งาน ก็อธิบายชี้นำเรื่องหน่อย หรือจะเอานื้อหาที่เคยคุยไว้ก๊อปส่วนสำคัญมาแปะก็ได้
ขอบคุณมากๆ นะคะสำหรับการแชร์วิธีการแก้ไขโดยเฉพาะอย่างยิ่งในเรื่องการชี้นำนี่เป็นประโยชน์และใช้ได้จริง ซึ่งวิธีการนี้จะไปตรงกับการเขียน Prompt แบบ Few-Shot Prompting กับ Chain-of-thought (CoT) พอดีเลยค่ะ 😊