ในยุคที่ AI เข้ามามีบทบาทในโลกการทำงานอย่างรวดเร็ว หลายองค์กรกำลังเผชิญกับคำถามสำคัญว่า “เมื่อเทคโนโลยีเก่งขึ้น ความสัมพันธ์ระหว่างคนจะเปลี่ยนไปอย่างไร” โดยเฉพาะในมิติของความเชื่อใจ ซึ่งถือเป็นพื้นฐานสำคัญของการทำงานร่วมกันค่ะ ซึ่งประเด็นนี้ถูกหยิบยกขึ้นมาพูดอย่างน่าสนใจในงาน People Performance Conference 2026 ภายใต้ธีม Year of Work Life Intelligence: จัดการชีวิต พิชิตงาน ผ่านเซสชัน “AI EMERGENCY ROOM : เมื่อคนเริ่มเชื่อ AI มากขึ้น แล้วTrust ระหว่างคนด้วยกันเองจะน้อยลงจริงไหม” โดย คุณภีศเดช เพชรน้อย ซึ่งชวนให้เรามองบทบาทของ AI ไม่ใช่แค่ในมุมของประสิทธิภาพการทำงาน แต่รวมถึงผลกระทบต่อความสัมพันธ์และความเชื่อใจของคนในองค์กรอีกด้วย
วิกฤตความเชื่อใจในที่ทำงาน เมื่อพนักงานเลือกถาม AI มากกว่าหัวหน้า
หากย้อนกลับไปก่อนปี 2021 หรือก่อนที่ ChatGPT จะเข้ามามีบทบาทอย่างแพร่หลาย เวลาที่ต้องตัดสินใจเรื่องสำคัญในการทำงาน ใครหลายคนรวมถึงเบลล์มักเริ่มจากการปรึกษาหัวหน้า พูดคุยกับเพื่อนร่วมทีม หรือค้นหาข้อมูลผ่าน Google เพื่อใช้ประกอบการตัดสินใจ แต่ในปัจจุบันพฤติกรรมดังกล่าวได้เปลี่ยนแปลงไปอย่างชัดเจนค่ะ “คนที่เราเลือกถาม” ไม่ได้จำกัดอยู่เพียงคนรอบตัวอีกต่อไป หลายครั้งเบลล์เองพบว่าตัวเองเริ่มต้นจากการถาม AI ก่อน เนื่องจากความสะดวก รวดเร็ว และคำตอบที่มีลักษณะเป็นระบบ จนในบางสถานการณ์ AI กลายเป็นแหล่งข้อมูลหลักโดยที่ยังไม่ได้มีการนำไปพูดคุยหรือแลกเปลี่ยนกับผู้อื่นเพิ่มเติม
อย่างไรก็ตามการเปลี่ยนแปลงนี้กำลังส่งผลต่อความเชื่อใจภายในองค์กรอย่างเห็นได้ชัด เบลล์มองเห็นภาพที่ชัดเจนขึ้นว่า ในหลายองค์กรพนักงานเริ่มให้ความเชื่อถือคำตอบจาก AI มากกว่าคำแนะนำของผู้บังคับบัญชา ขณะเดียวกันผู้บริหารเองก็เริ่มตั้งข้อสงสัยต่อคุณภาพของผลงาน ว่าผ่านกระบวนการคิด วิเคราะห์ และตรวจสอบมาอย่างเหมาะสมหรือไม่ หรือเป็นเพียงการนำผลลัพธ์จาก AI มาใช้โดยขาดการกลั่นกรอง สถานการณ์ลักษณะนี้จึงนำไปสู่สิ่งที่เรียกว่า “ความไม่เชื่อใจทั้งสองทาง” (Two-way Distrust) ซึ่งไม่ได้เกิดจากบุคคลใดบุคคลหนึ่ง แต่เป็นผลจากรูปแบบการทำงานที่เปลี่ยนไปและค่อย ๆ ส่งผลให้ความเชื่อใจระหว่างบุคคลในองค์กรลดลงโดยไม่รู้ตัว
ต่อจากประเด็นนี้ในมุมมองของเบลล์มองว่าคำถามสำคัญจึงไม่ใช่เพียงว่า AI เก่งแค่ไหน แต่คือ “เราจะใช้ AI โดยยังรักษาความเชื่อใจระหว่างคนไว้ได้อย่างไร” เพราะแม้ AI จะช่วยให้การทำงานรวดเร็วและมีข้อมูลมากขึ้น แต่คำตอบที่ได้ยังจำเป็นต้องผ่านการคิดและตรวจสอบจากมนุษย์ องค์กรจึงควรสร้างวัฒนธรรมที่เปิดให้คนในทีมได้พูดคุยแลกเปลี่ยนและช่วยกันตั้งคำถามกับสิ่งที่ AI ให้มา เพื่อให้ได้คำตอบที่เหมาะสมกับบริบทจริงมากที่สุด
ในขณะเดียวกันบทบาทของผู้นำก็อาจต้องปรับจาก “ผู้ให้คำตอบ” มาเป็น “ผู้ชวนคิด” เพื่อให้ทีมสามารถใช้ AI ได้อย่างมีวิจารณญาณ และยังคงรักษาความเชื่อใจระหว่างกันไว้ได้ เพราะท้ายที่สุดแล้วต่อให้เทคโนโลยีจะพัฒนาไปมากเพียงใด ความเชื่อใจก็ยังคงเป็นเรื่องของคนและเป็นสิ่งสำคัญที่ทำให้องค์กรเดินต่อไปได้อย่างมั่นคงนั่นเองค่ะ
เมื่อความผิดพลาดเล็ก ๆ สะท้อน Trust และความเชื่อใจรูปแบบใหม่ในยุค AI
อีกหนึ่งตัวอย่างที่สะท้อนเรื่องความเชื่อใจได้อย่างชัดเจน คือกรณีที่มีการใช้เครื่องมือ AI อย่าง “Nano Banana” ในการช่วยสร้างสื่อสำหรับงาน Hackathon ซึ่งช่วยย่นระยะเวลาในการทำงานได้อย่างมากค่ะ ถึงแม้ AI จะมีความโดดเด่นด้านความรวดเร็วและความรู้ แต่ก็ยังมีข้อจำกัดโดยเฉพาะเมื่อต้องจัดการกับข้อมูลจำนวนมากจนอาจเกิดข้อผิดพลาดเล็ก ๆ เช่น การสะกดคำผิด
ซึ่งในกรณีนี้มีการนำอินโฟกราฟิกที่มีคำสะกดผิดไปใช้งานจริงโดยไม่ได้ตรวจสอบให้รอบคอบ แม้จะเป็นเพียงรายละเอียดเล็กน้อยแต่กลับส่งผลต่อความเชื่อใจอย่างมากค่ะ เพราะเมื่อผู้บริหารเห็นข้อผิดพลาดดังกล่าว สิ่งที่เกิดขึ้นไม่ใช่แค่การแก้คำผิด แต่คือความสงสัยต่อคุณภาพของงานทั้งหมดว่าผ่านการคิดและตรวจสอบมาอย่างเหมาะสมหรือไม่ หรือเป็นเพียงการพึ่งพา AI โดยขาดการกลั่นกรอง
แต่ในอีกมุมหนึ่งงานวิจัยด้านประสาทวิทยาชี้ให้เห็นว่า การเชื่อ AI มากขึ้น ไม่ได้หมายความว่าเราจะเชื่อคนน้อยลงโดยอัตโนมัติ เนื่องจากสมองของมนุษย์แยกการประมวลผลระหว่าง “ความเชื่อใจใน AI” และ “ความเชื่อใจในมนุษย์” ออกจากกันค่ะ ดังนั้นประเด็นสำคัญจึงไม่ใช่การลดการใช้ AI แต่คือการออกแบบวิธีการทำงานและความสัมพันธ์ในองค์กรใหม่ หากองค์กรสามารถส่งเสริมให้คนในทีมมีการพูดคุย แลกเปลี่ยน และช่วยกันตรวจสอบคำตอบจาก AI ก็จะนำไปสู่การสร้าง “New Trust” หรือความเชื่อใจรูปแบบใหม่ที่ผสานการใช้ AI เข้ากับการคิดและตัดสินใจร่วมกันของมนุษย์ และในระยะยาวความเชื่อใจในองค์กรอาจไม่ได้ลดลงแต่กลับเพิ่มขึ้นจากการทำงานร่วมกันที่มีคุณภาพมากขึ้นนั่นเองค่ะ
โมเดล ABCD, สิ่งที่ AI แทนที่ได้ และสิ่งที่มนุษย์ยังเหนือกว่า
แนวคิดเรื่องความเชื่อใจตามโมเดลของ Ken Blanchard อธิบายว่า ความเชื่อใจไม่ได้เกิดขึ้นจากปัจจัยใดปัจจัยหนึ่ง แต่เกิดจากองค์ประกอบ 4 ด้านที่ทำงานร่วมกัน ดังนี้
1. Able (ความเก่ง) เชื่อใจเพราะมีความสามารถ
ความสามารถเป็นพื้นฐานแรกของความเชื่อใจ เพราะเมื่อเรามองว่าอีกฝ่ายมีความรู้ ความเชี่ยวชาญ และทักษะที่เหมาะสม เราจะมั่นใจว่างานจะถูกทำออกมาได้ดี ในปัจจุบัน AI เข้ามามีบทบาทอย่างมากในด้านนี้ โดยเฉพาะเรื่องการให้ข้อมูล การวิเคราะห์ และการช่วยทำงานบางประเภทได้อย่างรวดเร็วและแม่นยำ ทำให้ในบางสถานการณ์พนักงานอาจรู้สึกว่า AI “เก่งกว่า” หรือให้คำตอบที่ชัดเจนกว่ามนุษย์ อย่างไรก็ตามความสามารถในเชิงเทคนิคเพียงอย่างเดียวอาจยังไม่เพียงพอต่อการสร้างความเชื่อใจในระยะยาว
ในยุคที่ Generative AI เข้ามามีบทบาทในการทำงานมากขึ้น องค์กรจำเป็นต้องพัฒนา “Trust Literacy” หรือทักษะในการรู้เท่าทันความเชื่อใจ เพื่อให้สามารถใช้ AI ได้อย่างมีประสิทธิภาพควบคู่ไปกับการรักษาความเชื่อใจระหว่างคนในทีม โดยสามารถมองเป็น 4 ขั้นตอนสำคัญที่เชื่อมโยงกันได้อย่างเป็นระบบดังนี้ค่ะ
1. Understand (สร้างความเข้าใจในความเชื่อใจ)
จุดเริ่มต้นของ Trust Literacy คือการทำให้คนในองค์กรเข้าใจว่าความเชื่อใจทำงานอย่างไร โดยเฉพาะในบริบทของ AI ที่ความเชื่อใจเริ่มเปลี่ยนจากการยึดที่ “แหล่งที่มา” หรือกระบวนการ ไปสู่การเชื่อใน “ผลลัพธ์” มากขึ้น ขณะเดียวกันก็ต้องทำความเข้าใจว่าความเชื่อใจใน AI และความเชื่อใจในมนุษย์เป็นคนละส่วนกัน การเชื่อ AI มากขึ้นไม่ได้หมายความว่าความเชื่อใจระหว่างคนจะลดลงหากมีการบริหารจัดการที่เหมาะสม
2. Verify (ตรวจสอบอย่างมีวิจารณญาณ)
องค์กรควรปลูกฝัง Critical Thinking ให้กับพนักงาน เพื่อไม่ให้เกิดความผิดพลาดจากการใช้ AI โดยไม่ตรวจสอบ ผลลัพธ์จาก AI ควรถูกตั้งคำถามและตรวจสอบก่อนนำไปใช้งานเสมอ นอกจากนี้ความโปร่งใสในกระบวนการทำงานก็มีความสำคัญ เช่น การพูดคุยกันอย่างเปิดเผยว่า AI ถูกนำมาใช้ในขั้นตอนไหน และมีการตรวจสอบอย่างไร เพื่อสร้างความมั่นใจร่วมกันในทีม
3. Collaborate (เปลี่ยนการทำงานสู่การร่วมมือกัน)
จากเดิมที่ต่างคนต่างใช้ AI องค์กรควรปรับรูปแบบการทำงานไปสู่การ “ใช้ AI แล้วนำมาคิดร่วมกัน” โดยให้ทีมช่วยกันวิเคราะห์ ท้าทาย และปรับปรุงคำตอบจาก AI เพื่อให้ได้ผลลัพธ์ที่เหมาะสมมากขึ้น ในขณะเดียวกันควรส่งเสริมบทบาทของมนุษย์ในด้านความสัมพันธ์และการช่วยเหลือกัน ซึ่งเป็นสิ่งที่ AI ไม่สามารถทดแทนได้เพื่อสร้างรูปแบบความสัมพันธ์ใหม่ที่แข็งแรงยิ่งขึ้น
4. Decide (มนุษย์เป็นผู้ตัดสินใจขั้นสุดท้าย)
แม้ AI จะสามารถช่วยให้ข้อมูลและข้อเสนอแนะได้ดีเพียงใด แต่การตัดสินใจสุดท้ายยังคงต้องอาศัยมนุษย์ โดยเฉพาะในเรื่องที่เกี่ยวข้องกับบริบท ความรู้สึก และวัฒนธรรม องค์กรจึงควรกำหนดจุดสำคัญในกระบวนการทำงานที่ต้องมีการพิจารณาและตัดสินใจโดยคนเพื่อให้มั่นใจว่าผลลัพธ์ที่ได้เหมาะสมกับสถานการณ์จริง
โดยสรุปแล้วหากองค์กรสามารถพัฒนา Trust Literacy ได้อย่างเป็นระบบ ความเชื่อใจระหว่างคนในองค์กรอาจไม่ได้ลดลงจากการใช้ AI แต่กลับมีโอกาสเพิ่มขึ้นจากการที่ทุกคนได้มีส่วนร่วมในการคิด วิเคราะห์ และตัดสินใจร่วมกันบนพื้นฐานของข้อมูลและความเข้าใจที่รอบด้านมากยิ่งขึ้นนั่นเองค่ะ
สรุป AI EMERGENCY ROOM เมื่อ Trust ในองค์กรกำลังเปลี่ยนไปในยุค AI ที่ทุกคนต้องปรับตัว ในงาน People Performance Conference 2026
บทความนี้สะท้อนให้เห็นว่าการเข้ามาของ AI ในโลกการทำงานไม่ได้เปลี่ยนแค่ “วิธีทำงาน” แต่กำลังเปลี่ยน “ความเชื่อใจ” ระหว่างคนในองค์กรอย่างชัดเจนค่ะ และความผิดพลาดเล็กน้อยจากการใช้ AI โดยไม่ตรวจสอบสามารถกระทบต่อความน่าเชื่อถือได้เป็นอย่างมาก
แต่จากงานวิจัยยืนยันว่าการเชื่อ AI ไม่ได้ทำให้เราเชื่อคนน้อยลง หากองค์กรสามารถออกแบบวิธีการทำงานและความสัมพันธ์ใหม่ได้อย่างเหมาะสม การสร้าง Trust Literacy จึงเป็นกุญแจสำคัญในการรับมือกับการเปลี่ยนแปลงนี้ ดังนั้นองค์กรจึงควรส่งเสริมให้เกิดการคิด วิเคราะห์ ตรวจสอบ และทำงานร่วมกันกับ AI อย่างมีวิจารณญาณ พร้อมกำหนดให้มนุษย์เป็นผู้ตัดสินใจในประเด็นสำคัญ หากสามารถผสานการใช้ AI กับการทำงานร่วมกันของคนได้อย่างเหมาะสม ความเชื่อใจในองค์กรอาจไม่ได้ลดลง แต่กลับพัฒนาไปสู่ “ความเชื่อใจรูปแบบใหม่” ที่แข็งแรงและยั่งยืนมากขึ้นนั่นเองค่ะ