Wednesday, December 24, 2025
AIArticlesGenerative AI

จุดอันตรายของ GenAI ที่ CIO ต้องให้ความสำคัญและจัดการอย่างเร่งด่วน

GenAI

ข้อแนะนำถึง CIO ที่ต้องจัดการความท้าทายที่มองเห็นได้และความเสี่ยงที่ซ่อนเร้นอยู่ในการนำ GenAI มาใช้ พร้อมจัดลำดับความสำคัญ เพื่อแก้ไขจุดบอดเหล่านี้ได้อย่างเหมาะสม

าร์ทเนอร์ อิงก์ ชี้จุดบอดสำคัญที่เกิดจากความเสี่ยงจากการนำ Generative AI มาใช้งาน ที่ผู้บริหารไอทีมักมองข้ามและส่งผลกระทบตามมาโดยไม่ได้ตั้งใจ โดยผู้ CIO ต้องให้ความสำคัญ เร่งแก้ไขความท้าทายที่ซ่อนเร้นเหล่านี้ในแบบเชิงรุก เพื่อให้มั่นใจว่าจะได้รับคุณค่าจากการนำ GenAI มาใช้งาน และหลีกเลี่ยงความล้มเหลวในโครงการ AI

อรุณ จันทรเศกการัน รองประธานนักวิเคราะห์การ์ทเนอร์ กล่าวว่า “เทคโนโลยีและเทคนิคการใช้งานของ GenAI กำลังพัฒนารุดหน้าไปอย่างรวดเร็วอย่างที่ไม่เคยเกิดมาก่อน พร้อมๆ กับความคาดหวังที่สูงลิ่วขององค์กรผู้ใช้ นั่นทำให้ CIO ต้องเผชิญความท้าทายของการเป็นผู้นำท่ามกลางภูมิทัศน์ที่เปลี่ยนแปลงตลอดเวลานี้” 

แม้องค์กรต่างๆ จะให้ความสำคัญกับความท้าทายเร่งด่วนของ GenAI อาทิ คุณค่าทางธุรกิจ ความปลอดภัย และความพร้อมของข้อมูล แต่พวกเขาอาจมองข้ามจุดบอดสำคัญเหล่านี้ เนื่องจากเป็นผลกระทบในระดับรองๆ ลงมาที่ไม่ค่อยปรากฏให้เห็นอย่างชัดเจนตั้งแต่แรก 

อรุณ จันทรเศกการัน รองประธานนักวิเคราะห์การ์ทเนอร์

โดยความเสี่ยงอย่างการแอบใช้ AI ในองค์กร (Shadow AI), ผลเสียที่เกิดขึ้นในระยะยาวจากการเลือกทางลัดหรือการตัดสินใจที่ง่ายและเร็ว (Technical Debt), การเสื่อมถอยของทักษะ (Skills Erosion)

ความต้องการด้านอธิปไตยข้อมูล (Data Sovereignty), ปัญหาการทำงานร่วมกัน (Interoperability Issues) และการผูกติดกับผู้ให้บริการรายเดียว (Vendor Lock-In) ล้วนเป็นคลื่นใต้น้ำที่บดบัง และบ่อนทำลายความสำเร็จในระยะยาว

การ์ทเนอร์ คาดการณ์ว่าภายในปี 2573 จุดบอดเหล่านี้จะสร้างเส้นแบ่งระหว่างองค์กรที่นำ AI มาใช้ได้อย่างปลอดภัยและมีกลยุทธ์ กับองค์กรที่ติดกับดัก ล้าหลัง หรือถูกรบกวนจากภายใน

เพื่อรักษาขีดความสามารถในการแข่งขันและความยืดหยุ่น CIO ต้องจัดการทั้งความท้าทายที่มองเห็นได้และความเสี่ยงที่ซ่อนเร้นอยู่ในการนำ GenAI มาใช้ พร้อมจัดลำดับความสำคัญเพื่อแก้ไขจุดบอดเหล่านี้ได้อย่างเหมาะสม ดังนี้

เกิดการแอบใช้ AI ที่องค์กรไม่อนุญาต 

ผลสำรวจการ์ทเนอร์ของผู้นำด้านความปลอดภัยทางไซเบอร์จำนวน 302 ราย ระหว่างเดือนมีนาคม-พฤษภาคม ปี 2568 เผยว่า 69% ขององค์กรสงสัยหรือมีหลักฐานว่าพนักงานกำลังใช้ GenAI สาธารณะที่ต้องห้าม

การนำเครื่องมือ AI ที่ไม่ได้รับอนุญาตมาใช้อย่างรวดเร็วอาจนำไปสู่ผลกระทบทั้งที่มองเห็นและมองไม่เห็น เช่น การละเมิดทรัพย์สินทางปัญญา การเปิดเผยข้อมูล และความเสี่ยงด้านความปลอดภัยที่เพิ่มขึ้น 

การ์ทเนอร์คาดการณ์ว่า ภายในปี 2573 มากกว่า 40% ขององค์กรจะเผชิญเหตุการณ์ด้านความปลอดภัยหรือการปฏิบัติตามข้อกำหนดที่เชื่อมโยงกับ Shadow AI ที่ไม่ได้รับอนุญาต

“เพื่อจัดการกับความเสี่ยงเหล่านี้ CIO ควรกำหนดนโยบายสำหรับการใช้เครื่องมือ AI ทั่วทั้งองค์กรที่ชัดเจนเพื่อดำเนินการตรวจสอบกิจกรรม Shadow AI เป็นประจำ และบูรณาการการประเมินความเสี่ยง GenAI_เข้ากับกระบวนการประเมินและตรวจสอบซอฟต์แวร์บริการ (SaaS Assessment Processes) เพื่อให้แน่ใจว่าตอบโจทย์ธุรกิจ ทั้งด้านประสิทธิภาพ ความปลอดภัย การใช้งาน และการปฏิบัติตามข้อกำหนด” อรุณ กล่าวเพิ่มเติม

การเร่งใช้ AI อาจส่งผลร้ายตามมา

การ์ทเนอร์คาดการณ์ว่า ภายในปี 2573 องค์กร 50% จะเผชิญกับการอัปเกรด AI ที่ล่าช้าและ-หรือต้นทุนการบำรุงรักษาที่เพิ่มขึ้นเนื่องจากหนี้ทางเทคนิคของ GenAI_ที่ไม่ได้รับการจัดการ

อรุณให้ความเห็นเสริมว่า “องค์กรต่างๆ ตื่นเต้นกับความเร็วในการตอบสนองของ GenAI แต่ด้วยต้นทุนที่สูงลิ่วในการบำรุงรักษา แก้ไข หรือปรับเปลี่ยนสิ่งที่ AI สร้างขึ้น เช่น โค้ด เนื้อหา และการออกแบบ อาจกัดกร่อนผลตอบแทนที่ได้จากการลงทุนตามที่ GenAI_สัญญาไว้” 

“ดังนั้นการจัดทำมาตรฐานที่ชัดเจนสำหรับการตรวจสอบและจัดทำเอกสารสินทรัพย์ที่ AI สร้างขึ้น และติดตามตัวชี้วัดหนี้สินทางเทคนิคในแดชบอร์ด IT จะช่วยให้องค์กรสามารถดำเนินการได้แบบเชิงรุกเพื่อป้องกันการหยุดชะงักที่มีค่าใช้จ่ายสูง” 

ความต้องการด้านอธิปไตยข้อมูลและ AI ที่เพิ่มขึ้น

การ์ทเนอร์คาดการณ์ว่า ภายในปี 2571 รัฐบาล 65% ทั่วโลกจะนำข้อกำหนดด้านอธิปไตยทางเทคโนโลยีมาใช้เพื่อเพิ่มความเป็นอิสระและป้องกันการแทรกแซงด้านกฎระเบียบจากต่างแดน

ข้อจำกัดด้านกฎระเบียบเกี่ยวกับการแบ่งปันข้อมูลหรือใช้โมเดลการแบ่งปันข้อมูลแบบข้ามประเทศ (Cross-Border Data) สามารถชะลอการปรับใช้ AI ทั่วทั้งองค์กร เพิ่มต้นทุนรวมของการเป็นเจ้าของระบบไอทีต้นทุนการเป็นเจ้าของทั้งหมด (TCO) และส่งผลให้ได้ผลลัพธ์ที่ไม่เหมาะสม

เพื่อจัดการกับความท้าทายเหล่านี้ CIO ต้องสร้างอธิปไตยข้อมูล (Data Sovereignty) ใส่เข้าไปในกลยุทธ์ AI ตั้งแต่เริ่มต้น โดยการให้ทีมกฎหมายเข้ามามีส่วนร่วมตั้งแต่เนิ่นๆ และจัดลำดับความสำคัญของผู้ให้บริการที่ตอบสนองความต้องการด้านอธิปไตยข้อมูลและ AI

ความเชี่ยวชาญและการตัดสินใจโดยสัญชาตญาณของมนุษย์ถดถอยลง

การพึ่งพา AI มากเกินไปอาจกัดกร่อนความเชี่ยวชาญ การตัดสินใจ และความรู้โดยนัยของมนุษย์ที่มีความสำคัญ ซึ่งไม่สามารถถ่ายทอดหรือทดแทนได้ง่ายๆ โดยการเสื่อมถอยของทักษะนี้เกิดขึ้นอย่างค่อยเป็นค่อยไปและมักไม่มีใครสังเกตเห็น 

ดังนั้นผู้บริหาร CIO อาจไม่รับรู้ถึงความเสี่ยงจนกว่าองค์กรจะมีปัญหาในการทำงานเมื่อไม่ได้ใช้งาน AI หรือเมื่อ AI เกิดการล้มเหลวเป็นกรณีพิเศษและต้องใช้สัญชาตญาณมนุษย์เข้ามาช่วย

“เพื่อป้องกันการสูญเสียความรู้และความสามารถขององค์กรไปเรื่อยๆ องค์กรควรระบุว่าการตัดสินใจและงานที่เกิดจากฝีมือของมนุษย์นั้นมีความจำเป็นในด้านใด และออกแบบโซลูชัน AI เพื่อเสริม ไม่ใช่มาแทนที่ทักษะเหล่านี้” อรุณกล่าว

การผูกติดกับระบบนิเวศและผู้ให้บริการเทคโนโลยีรายเดียว

องค์กรที่มุ่งมั่นนำศักยภาพ_GenAI มาใช้ประโยชน์ในวงกว้าง มักเลือกผู้ให้บริการเพียงรายเดียวเพื่อความรวดเร็วและความง่าย ซึ่งการพึ่งพาเชิงลึกนี้ส่งผลกระทบต่อความคล่องตัวทางเทคนิคและอำนาจในการต่อรองเจรจาเกี่ยวกับด้านราคา เงื่อนไข หรือระดับการให้บริการในอนาคต

CIO จำนวนมากมักประเมินความเชื่อมโยงระหว่างข้อมูล โมเดล หรือเวิร์กโฟลว์การทำงานต่ำไป และยึดติดกับ API ที่ออกแบบมาเฉพาะจากผู้ให้บริการ ไม่ว่าจะเป็นพื้นที่จัดเก็บข้อมูล และเครื่องมือที่มีบนแพลตฟอร์ม ซึ่งมีความเสี่ยงต่อสถานการณ์การรั่วไหลของข้อมูล

“การจัดลำดับความสำคัญของมาตรฐานเปิด API และสถาปัตยกรรมแบบโมดูลาร์เพื่อออกแบบชุดเทคโนโลยี AI จะช่วยให้องค์กรสามารถหลีกเลี่ยงการผูกติดกับผู้ให้บริการรายใดรายหนึ่งมากจนเกินไป นอกจากนี้ CIO ต้องสร้างมาตรฐานการทำงานร่วมกันในโครงการนำร่อง GenAI_และมีการประเมินผล” อรุณกล่าวสรุป