Key Points
- ภาย ในปี 2571 คาดว่าหน่วยงานรัฐบาลอย่างน้อย 80% จะนำ AI Agents มาใช้เพื่อเปลี่ยนกระบวนการตัดสินใจในงานประจำให้เป็นระบบอัตโนมัติ เพื่อเพิ่มประสิทธิภาพการบริการประชาชน
- CIO ภาครัฐต้องปรับโมเดลการทำงานจากเน้นการคุมโมเดล AI มาเป็นการกำกับดูแล “การตัดสินใจ” โดยตรงผ่าน DI (Decision Intelligence) เพื่อสร้างกระบวนการที่โปร่งใส ตรวจสอบได้ และลดปัญหาการทำงานแบบแยกส่วน (Silos)
- ภายในปี 2572 หน่วยงานรัฐ 70% จะใช้ระบบ AI ที่อธิบายได้ (XAI) และกลไก Human-in-the-Loop เพื่อรักษาความรับผิดชอบของมนุษย์ในกรณีที่มีความเสี่ยงสูง และสร้างความเชื่อมั่นให้กับประชาชน
การ์ทเนอร์ อิงก์ เผยภายในอีกสองปีข้างหน้า (ปี 2571) หน่วยงานรัฐบาลอย่างน้อย 80% จะใช้ AI Agents เพื่อปรับปรุงกระบวนการตัดสินใจในงานประจำให้เป็นระบบอัตโนมัติ ซึ่งจะช่วยเพิ่มประสิทธิภาพพร้อมยกระดับการให้บริการแก่ประชาชน
ดาเนียล นีเอโต ผู้อำนวยการอาวุโสฝ่ายวิเคราะห์ของการ์ทเนอร์ กล่าวว่า “บรรดา CIO ของหน่วยงานภาครัฐกำลังเผชิญแรงกดดันที่เพิ่มขึ้นในการเร่งนำ AI เข้ามาผสานรวมกับกระบวนการตัดสินใจอย่างมีธรรมาภิบาล โดยการอุบัติขึ้นของ Multimodal AI พร้อมด้วยระบบการสนทนา (Conversational System) และระบบเอเจนต์ (Agentic System) ได้ขยายขีดความสามารถให้องค์กรภาครัฐสามารถทำงานแบบอัตโนมัติ เข้าถึงข้อมูลเชิงลึก และคาดการณ์สถานการณ์ต่าง ๆ ได้ดียิ่งขึ้น
อย่างไรก็ตาม อุปสรรคเรื้อรังที่สุดประการหนึ่งในการสร้างมูลค่าจาก AI ขององค์กรภาครัฐคือการปฏิบัติตามกลยุทธ์ที่มีความกระจัดกระจาย หรือ Fragmentation โดยผลสำรวจของการ์ทเนอร์จากกลุ่มตัวอย่าง 138 รายในองค์กรภาครัฐทั่วโลกระหว่างเดือนกรกฎาคมถึงกันยายน ปี 2568 พบว่าอุปสรรคสำคัญในการปรับใช้โซลูชันดิจิทัล 41% มาจากกลยุทธ์การดำเนินงานแบบไซโล (Siloed Strategies) และ 31% มาจากระบบเดิมที่ล้าสมัย (Legacy Systems)
ดาเนียล นีเอโต ผู้อำนวยการอาวุโสฝ่ายวิเคราะห์ของการ์ทเนอร์ กล่าวว่า ผู้บริหารเทคโนโลยีสารสนเทศ (CIO) ในภาคส่วนราชการกำลังเผชิญกับความท้าทายสำคัญในการนำ AI เข้ามาปรับใช้ภายใต้หลักธรรมาภิบาล การเติบโตของเทคโนโลยีอย่าง Multimodal AI และระบบเอเจนต์อัจฉริยะ ช่วยยกระดับการทำงานภาครัฐให้มีความเป็นอัตโนมัติและแม่นยำในการคาดการณ์สถานการณ์มากขึ้น
อย่างไรก็ตาม ผลสำรวจล่าสุดช่วงปลายปี 2568 เผยให้เห็นปัจจัยฉุดรั้งที่เป็นอุปสรรค 2 ประการหลัก คือ
- การปรับใช้โซลูชันดิจิทัล (Siloed Strategies): พบเป็นอุปสรรคสูงถึง 41%
- โครงสร้างระบบเดิมที่ล้าสมัย (Legacy Systems): ส่งผลกระทบอีก 31%
ทั้งนี้ การก้าวข้ามข้อจำกัดด้านกลยุทธ์ที่กระจัดกระจายถือเป็นกุญแจสำคัญในการสร้างมูลค่าที่แท้จริงจากการใช้ AI ในองค์กรระดับโลก โดยนีเอโต กล่าวว่า “ลำพังเพียงการปรับปรุงเทคโนโลยีให้ทันสมัย ไม่สามารถแก้ปัญหาเหล่านี้ได้”
ธรรมาภิบาลต้องปรับเปลี่ยนจากการคุม ‘โมเดล’ สู่การคุม ‘การตัดสินใจ’
เมื่อ AI เปลี่ยนจากการทดลองไปสู่การเป็นส่วนประกอบสำคัญในกระบวนการตัดสินใจ แนวทางการกำกับดูแลจึงจำเป็นต้องเปลี่ยนตามไปด้วย จากเดิมที่การกำกับดูแล AI มักเน้นไปที่การบริหารจัดการตัวโมเดล ข้อมูล และอัลกอริทึมเป็นหลัก
อย่างไรก็ตาม Decision Intelligence (DI) หรือวิทยาการด้านการตัดสินใจ ได้เปลี่ยนโฟกัสไปสู่การกำกับดูแลที่ “ตัวการตัดสินใจ” โดยตรง เช่น การออกแบบกระบวนการ การบังคับใช้ การติดตามผล และการตรวจสอบการตัดสินใจ ซึ่งการเปลี่ยนแปลงแนวทางธรรมาภิบาลนี้ถือเป็นเรื่องสำคัญมากของหน่วยงานภาครัฐ เนื่องจากความชอบธรรมต่อสาธารณะนั้นต้องตั้งอยู่บนพื้นฐานของความโปร่งใสและความเป็นธรรม
ผลสำรวจการ์ทเนอร์พบว่า 39% ของผู้ตอบแบบสอบถามระบุว่า การยกระดับบริการและความพึงพอใจของประชาชนคือแรงจูงใจหลักในการลงทุนเพื่อสร้างความเชื่อมั่นจากภาคสาธารณะ ซึ่ง Decision Intelligence (DI) จะเข้ามาเป็นฐานรากเชิงโครงสร้างที่ช่วยให้ความเชื่อมั่นนี้เกิดขึ้นได้จริงในทางปฏิบัติ ผ่านการทำให้เส้นทางการตัดสินใจมีความชัดเจน โปร่งใส และสามารถตรวจสอบได้
นีเอโตกล่าวอีกว่า “การกำกับดูแลที่การตัดสินใจ แทนที่จะเป็นเพียงการควบคุมองค์ประกอบของ AI แยกส่วนกัน จะช่วยให้ภาครัฐสามารถสร้างสมดุลระหว่างระบบอัตโนมัติกับการใช้ดุลยพินิจของมนุษย์ได้ดียิ่งขึ้น โดยเฉพาะในบริบทที่มีความเสี่ยงสูงหรือส่งผลกระทบต่อสิทธิพลเมือง”
“อุตสาหกรรมที่อยู่ภายใต้การกำกับดูแลรวมถึงหน่วยงานภาครัฐ ไม่สามารถพึ่งพาระบบแบบกล่องดำ (Black Box System) ที่ขาดความโปร่งใสในการตัดสินใจเรื่องสำคัญ ๆ ได้ ซึ่ง DI จะช่วยยกระดับ ‘ความสามารถในการอธิบาย’ จากเดิมที่เป็นเพียงข้อกำหนดทางเทคนิค ให้กลายเป็นหัวใจสำคัญของ
ธรรมาภิบาล” เขากล่าวเสริม
ด้วยเหตุผลความจำเป็นด้านความโปร่งใส การ์ทเนอร์คาดว่า ภายในปี 2572 หน่วยงานรัฐ 70% จะกำหนดให้มีระบบ AI ที่อธิบายได้ หรือ Explainable AI (XAI) และเพิ่มกลไกให้มนุษย์มีส่วนร่วม หรือ Human-in-the-Loop (HITL) สำหรับทุกการตัดสินใจที่เป็นอัตโนมัติและส่งผลต่อการให้บริการประชาชน ซึ่ง XAI และ HITL คือรากฐานสำคัญของ DI ในภาครัฐ เพื่อให้มั่นใจได้ว่าตรรกะเบื้องหลังการตัดสินใจสามารถตรวจสอบ อธิบายและโต้แย้งได้ นอกจากนี้ยังช่วยให้มนุษย์ยังมีอำนาจตัดสินใจในกรณีเกิดข้อยกเว้น การอุทธรณ์ หรือในเคสที่มีความเสี่ยงสูง ทำให้ความรับผิดชอบยังคงอยู่แม้ระบบอัตโนมัติจะเพิ่มขึ้นก็ตาม
ประสบการณ์ของภาคประชาชนกลายเป็นมาตรวัดเชิงคุณภาพของคุณค่า AI
แม้ว่า “ประสิทธิภาพ” จะยังเป็นเรื่องสำคัญ แต่ “ความเชื่อมั่นของประชาชน” ต่อขีดความสามารถของภาครัฐในการให้บริการอย่างมีประสิทธิผล กำลังกลายเป็นแรงขับเคลื่อนสำคัญของการเปลี่ยนผ่านสู่ดิจิทัล โดยผลสำรวจพบว่า 50% ของผู้ตอบแบบสอบถามจากภาครัฐฯ ยกให้ “การยกระดับประสบการณ์ของประชาชน” เป็นหนึ่งในสามลำดับความสำคัญสูงสุด
“เมื่อ AI และ Decision Intelligence เข้ามาทำให้การบริการเป็นอัตโนมัติและคล่องตัวมากขึ้น นิยามของ ‘ประสบการณ์ประชาชน’ ก็จะเปลี่ยนไป เมื่อประชาชนได้รับสิ่งที่ต้องการจากรัฐโดยอัตโนมัติ การติดต่อสื่อสารกันโดยตรงอาจลดลง ส่งผลให้ความเชื่อมั่นในความน่าเชื่อถือ ความเป็นธรรมและความโปร่งใสของระบบมีความสำคัญมากยิ่งขึ้นกว่าเดิม และเนื่องจากความเชื่อมั่นหรือ Trust เป็นสิ่งจำเป็น ศักยภาพในการคาดการณ์ความต้องการล่วงหน้าจึงจะกลายเป็นปัจจัยที่กำหนดรูปแบบการส่งมอบบริการดิจิทัลของภาครัฐในอนาคต”
DI ช่วยให้รัฐบาลสามารถออกแบบกระบวนการตัดสินใจใหม่กับบริการที่ต้องติดต่อกับประชาชน โดยเปลี่ยนจากการมีปฏิสัมพันธ์เชิงรับตามขั้นตอน ไปสู่การมีส่วนร่วมเชิงรุกที่ตอบโจทย์เฉพาะบุคคล ซึ่งไม่เพียงแต่ช่วยเพิ่มความสม่ำเสมอและลดความล่าช้า แต่ยังยกระดับการรับรู้ถึงความเป็นธรรมและสร้างความเชื่อมั่นต่อสาธารณะ แม้ว่าการติดต่อกับเจ้าหน้าที่รัฐโดยตรงจะมีแนวโน้มลดลงก็ตาม
