Thursday, September 19, 2024
AIArticlesGenerative AI

เพิ่มการจัดการความปลอดภัยให้ Generative AI

Generative AI

การใช้ Generative AI อาจทำให้ช่องโหว่ด้านความปลอดภัยเพิ่มขึ้นใน 3-5 ปี ข้างหน้า เพราะถึงแม้รูปแบบของเอไอทำให้องค์กรได้ใช้ประโยชน์จากข้อมูลที่มีอยู่ แต่มีเดิมพันสูงหากรูปแบบที่นำเข้ามานั้น ไม่ปลอดภัยต่อสภาพแวดล้อมการทำงานและการดำเนินธุรกิจ

ารพัฒนาขีดความสามารถอย่างก้าวกระโดดของ Generative AI ในระดับที่สามารถประมวลผลข้อมูลที่มีอยู่เดิม มาสังเคราะห์เป็นชุดข้อมูลใหม่ในรูปแบบที่หลากหลาย ไม่ว่าจะเป็นข้อความ ภาพ เสียง วิดีโอ ที่โต้ตอบได้สมจริง ซึ่งถูกนำมาใช้ขับเคลื่อนบริการทางธุรกิจ การสร้างสรรค์ผลิตภัณฑ์ การพัฒนากลยุทธ์การตลาด และการสร้างประสบการณ์ที่ดีให้กับลูกค้าได้มีประสิทธิภาพมากกว่าเดิม

​แต่ เหรียญมักมีสองด้านเสมอ เมื่อโลกเริ่มตั้งคำถามถึงด้านมืดของ Generative AI เช่น Deepfakes ซึ่งเป็นการใช้เทคโนโลยี AI เพื่อสร้างวิดีโอหรือภาพที่ปลอมแปลงบุคคลหรือเหตุการณ์ โดยการสอนเอไอด้วยข้อมูลที่มีอคติหรือผิดพลาด อาจทำให้ได้ผลลัพธ์ที่บิดเบือนความเป็นจริง 

และเมื่อนำข้อมูลที่บิดเบือนความจริงไปใช้ อาจจะก่อให้เกิดผลกระทบต่อชื่อเสียงองค์กรและแบรนด์ และ Hallucination ซึ่งหมายถึงการที่เอไอสร้างข้อมูลหรือคำตอบที่ไม่สอดคล้องกับข้อมูลจริงหรือข้อเท็จจริงที่มีอยู่ การเกิด Hallucination มักเกิดขึ้นเนื่องจากความซับซ้อนในกระบวนการคิดวิเคราะห์ของโมเดลหรืออัลกอริทึม ทำให้ผลลัพธ์ที่ได้ไม่ถูกต้องหรือเชื่อถือได้น้อย

คลี่จุดเสี่ยง Generative AI

​ภูมิทัศน์ด้านความปลอดภัยของ Generative AI กำลังเปลี่ยนไป ความก้าวหน้าทางเทคโนโลยีใหม่ทำให้ความต้องการใช้งานเพิ่มขึ้นจนแซงหน้าการล้อมรั้วป้องกันไปแล้ว 

อะเมซอน เว็บ เซอร์วิสเซส เปิดเผยว่า 71% ของผู้นำไอทีอาวุโสรู้สึกว่า Generative AI กำลังสร้างความเสี่ยงรูปแบบใหม่ และกว่า 51% ของคนทำงานในองค์กรมักไม่รู้เรื่องนโยบายเกี่ยวกับ Generative AI หรือไม่มีนโยบายเกี่ยวกับเรื่องดังกล่าวในองค์กรเลย เนื่องจากสิ่งเหล่านี้เป็นสิ่งใหม่ที่เกิดขึ้นมาและมีความน่าสนใจหลายๆอย่างทำให้อาจจะก่อให้เกิดความละเลยในด้านความปลอดภัยได้

หากพิจารณาองค์ประกอบของการพัฒนาแอปพลิเคชันในแบบ Generative_AI ซึ่งมีโมเดลพื้นฐาน (Foundation Models-FM) ที่ได้รับการฝึกฝนด้วยการวิเคราะห์ชุดข้อมูลปริมาณมหาศาล อาทิ ข้อมูลจากการดำเนินงาน ทรัพย์สินทางปัญญา ข้อมูลเกี่ยวกับลูกค้า หรือข้อมูลอ่อนไหวอื่นๆ ที่องค์กรมีอยู่ 

โดยโมเดลพื้นฐานนี้จะทำการวิเคราะห์ข้อมูลทั้งหลาย เพื่อกำหนดแบบแผนและการเรียนรู้ในการดำเนินการกับเนื้อหาใหม่ที่มีความคล้ายคลึงกัน นำไปสู่การสร้างโมเดลเอไอ (AI Model) หรือแอปพลิเคชันที่เป็น Generative_AI ให้เหมาะกับความต้องการของธุรกิจ 

ด้วยเหตุนี้ การดูแลความปลอดภัยและการตรวจสอบข้อมูลก่อนป้อนเข้าสู่ระบบจึงมีความสำคัญสูง รวมถึงต้องให้ความใส่ใจในโมเดลเอไอที่ถูกพัฒนาขึ้นมา ให้แสดงผลได้อย่างแม่นยำและเที่ยงตรง

​บริษัทที่ปรึกษา PwC ประเมินความเสี่ยงการใช้งาน Generative_AI ที่องค์กรพึงเข้าใจและวางแผนรับมือออกเป็น 4 ประการด้วยกัน คือ 

หนึ่ง ความเสี่ยงเรื่องข้อมูล (Data risks) ที่เกิดจากความผิดพลาดโดยตัวข้อมูลเอง ทรัพย์สินทางปัญญา หรือข้อมูลที่อยู่ในเงื่อนไขสัญญาหรือข้อตกลงซึ่งอาจไม่ได้รับอนุญาตให้ใช้ รวมถึงข้อมูลด้อยคุณภาพที่นำมาใช้ฝึกฝนหรือสร้างโมเดลเอไอ จนได้ผลลัพธ์เป็นเนื้อหาที่ก่อให้เกิดความเข้าใจผิด หรือเป็นอันตราย 

สอง ความเสี่ยงของโมเดลเอไอที่มีอคติ (Model and bias risks) โดยเฉพาะกับการพัฒนาโมเดลภาษาขนาดใหญ่ (Large language model-LLMs) ที่อาจเกิดช่องโหว่เรื่องหลักจริยธรรม ความรับผิดชอบ และเกิดการเลือกปฏิบัติ เช่น การโต้ตอบด้วยเนื้อหาที่เป็นลบต่อความรู้สึก (Toxic) หรือใช้ภาษาหยาบคาย 

สาม ความเสี่ยงในการป้อนข้อมูลหรือคำสั่ง (Prompt or input risks) เช่น การป้อนคำสั่งหรือคำถามที่ไม่ชัดเจนให้กับโมเดลเอไอ ทำให้ได้คำตอบที่สร้างความเข้าใจผิด ไม่ถูกต้องเที่ยงตรง 

และสุดท้าย ความเสี่ยงโดยผู้ใช้งาน (User risks) โดยส่วนใหญ่เป็นการสร้างและส่งต่อเนื้อหาที่ให้ข้อมูลผิดๆ หรือเป็นอันตรายโดยไม่ตั้งใจหรือไม่รู้ตัว เช่น การส่งต่อภาพลวงที่สร้างจากเอไอแต่เข้าใจว่าเป็นภาพจริง

ป้องกันอย่างไร? หากองค์กรอยากใช้ Generative_AI

อะเมซอน เว็บ เซอร์วิสเซส แนะแนวทางการใช้งานเจเนอเรทีฟ เอไอ อย่างมีประสิทธิภาพและปลอดภัยสำหรับธุรกิจ ได้แก่

การดูแลความปลอดภัยบนคลาวด์ ซึ่งเป็นโครงสร้างพื้นฐานที่รองรับการทำงานทั้ง AI และ Generative_AI เช่น การจัดการตัวตนและการเข้าถึงทรัพยากร (Identity and access management-IAM) การตรวจจับและตอบสนองต่อภัยคุกคาม (Detection and response) การปกป้องโครงสร้างพื้นฐาน (Infrastructure protection) การปกป้องข้อมูล (Data protection) และการดูแลความปลอดภัยให้กับแอปพลิเคชัน (App security) 

การปกป้องความเป็นส่วนตัวของข้อมูล โดยเฉพาะอย่างยิ่งข้อมูลที่ถูกนำมาใช้ฝึกสอน Generative_AI อย่างการจัดการเรื่อง IAM ที่มีประสิทธิภาพ จะช่วยควบคุมคนหรือแมชชีนในการเข้าถึงทรัพยากรภายใต้เงื่อนไขที่ถูกต้อง

การปกป้องเจเนอเรทีฟ เอไอในระดับแอปพลิเคชัน ด้านหนึ่งเพื่อเป็นการป้องกันข้อมูล (Input) ที่ป้อนเข้าสู่ Generative_AI การคัดกรองการเข้าถึงโมเดลพื้นฐานเพื่อป้องกันการเข้ามาปลอมแปลงข้อมูล ป้องกันการส่งคำสั่งให้ Generative_AI ล้วงข้อมูลหรือโจมตีตัวเอง 

ตลอดจนเป็นโอกาสในการกำกับดูแลคุณภาพของข้อมูล การศึกษารูปแบบภัยคุกคาม และสร้างการตรวจสอบอย่างต่อเนื่อง ขณะที่อีกด้านหนึ่งถือเป็นการป้องกันผลลัพธ์ (Output) ให้ออกมาอย่างถูกต้อง รวมถึงป้องกันพฤติกรรมการใช้งานแบบผิดๆ หรือดูซับซ้อนน่าสงสัย จนเกิดผสเสียกับองค์กร

และ การป้องกันตัวโมเดล ที่มักโดนยักย้ายถ่ายเทข้อมูลระหว่างทาง การโจมตีองค์ประกอบที่เกี่ยวข้อง ทำให้แสดงผลแบบผิดๆ ซึ่งทำลายความถูกต้องเที่ยงตรง หรือทำให้โมเดลเอไอไม่มีความพร้อมเมื่อต้องการใช้งาน 

โดย ไอบีเอ็ม กล่าวว่า 96% ของผู้บริหารองค์กรเห็นว่า การใช้ Generative_AI อาจทำให้ช่องโหว่ด้านความปลอดภัยเพิ่มขึ้นใน 3-5 ปี ข้างหน้า เพราะถึงแม้รูปแบบของเอไอทำให้องค์กรได้ใช้ประโยชน์จากข้อมูลที่มีอยู่ แต่มีเดิมพันสูงหากรูปแบบที่นำเข้ามานั้น ไม่ปลอดภัยต่อสภาพแวดล้อมการทำงานและการดำเนินธุรกิจ 

​ดังนั้น หากองค์กรต้องการลดความเสี่ยงลง นอกจากการดูแลความปลอดภัยของข้อมูลและ อินฟราสรัคเจอร์โดยพื้นฐานในการสร้าง Generative_AI แล้ว ยังต้องคำนึงถึงผู้มีส่วนเกี่ยวข้อง อาทิ นักวิทยาศาสตร์ข้อมูล วิศวกรข้อมูล นักพัฒนา หรือยูสเซอร์ ที่มีบทบาทเกี่ยวข้องกับการพัฒนาโมเดลเอไอ 

หรือแอปพลิเคชันในแบบ Generative_AI เพื่อสร้างการตระหนักรู้ถึงความปลอดภัยในการเข้าถึงข้อมูล แมชชีนเลิร์นนิง ดีพเลิร์นนิง เช่น ระวังการนำแมชชีนเลิร์นนิงที่เป็นโอเพนซอร์สบนออนไลน์มาใช้โดยไม่คำนึงถึงแหล่งที่มา ทำให้ขาดการควบคุมปลอดภัยอย่างรอบด้าน 

การอัปโหลดโมเดลขึ้นไปเก็บบนพื้นที่เก็บรวบรวมโมเดลออนไลน์ (Online model repositories) แล้วเกิดติดมัลแวร์ขึ้นมา 

การโจมตีผ่านช่องทางการเชื่อมต่อระหว่างแอปพลิเคชัน (Application programming interface-API) เพื่อเข้าถึงข้อมูลที่กำลังเคลื่อนย้ายไปมา เช่น ข้อมูลในโมเดลภาษาขนาดใหญ่ หรือการเชื่อมต่อที่มาจากโมเดลเอไอของบุคคลที่สาม 

ซึ่งองค์กรอาจแก้เกมด้วยการควบคุมการเข้าใช้งานตามบทบาทหน้าที่ (Roles based access control-RBAC) เพื่อไม่ให้ใครก็ได้สามารถเข้าถึงข้อมูลทั้งหมด หรือไม่ให้เข้าถึงฟังก์ชันการทำงานของโมเดลเอไอได้ทุกโมเดล รวมถึงควรการกำหนดมาตรฐานความปลอดภัยในการใช้งานอุปกรณ์ต่างๆ 

ที่สำคัญ คือ ธรรมาภิบาลในการสร้างและใช้งานโมเดลเอไอ หรือ Generative_AI บนความรับผิดชอบ โดยเฉพาะการสอดส่องและจัดการรูปแบบการวิเคราะห์ข้อมูล หรืออัลกอริทึมต่างๆ ให้มีความเป็นธรรมและปราศจากอคติอยู่เสมอ หมั่นตรวจสอบชุดข้อมูลเก่า-ใหม่และบริบทไหนที่สมควรเอาออกไป เพื่อป้องกันความยุ่งยากซับซ้อน 

เพราะนับวันการพัฒนาโมเดลเอไอและแอปพลิเคชันที่เป็นเจเนอเรทีฟ เอไอจะยิ่งมีปริมาณมากขึ้น การนำผู้เชี่ยวชาญที่มีประสบการณ์มาร่วมตรวจสอบความถูกต้องของผลลัพธ์ เพื่อป้องกันไม่ให้เจเนอเรทีฟ เอไอปล่อยเนื้อหาที่เป็นพิษภัย (Toxic) ออกมาเสียเอง ก็มีส่วนช่วยผ่อนหนักให้เป็นเบาได้เช่นกัน

ปัจจุบัน มีการพัฒนาเครื่องมือเพิ่มความปลอดภัยในการพัฒนาแอปพลิเคชันที่ใช้ Generative AI เช่น Guardrails AI, Guardrails hub และ Validators ในการร่วมตรวจสอบข้อมูลขาเข้าและขาออก เช่น ข้อมูลที่ไม่เป็นกลาง ผลลัพธ์ที่ไม่เกิดประโยชน์ การจัดการกับโมเดลภาษาขนาดใหญ่ที่มีข้อมูลอยู่มากให้อยู่ในรูปแบบที่ชัดเจนและใช้งานง่าย 

ตัวอย่างเช่น การระบุให้ลบภาษาที่ไม่เหมาะสม วลีที่มีอคติ ถ้อยคำที่ท็อกซิกออกจากข้อมูลการฝึกเอไอ การควบคุมแชตบอตให้ตอบคำถามเฉพาะในขอบเขตที่ต้องการนอกจากนี้ ผู้ให้บริการคลาวด์อย่างอะเมซอน ได้พัฒนาบริการด้านความปลอดภัยเพื่อตอบสนองการใช้งาน Generative_AIให้ครอบคลุมมากขึ้น 

เช่น Amazon Macie ความปลอดภัยด้านข้อมูลที่ใช้แมชชีนเลิร์นนิง ซึ่งช่วยให้องค์กรจำแนกข้อมูลอ่อนไหวและป้องกันเสียก่อนที่จะถูกโจมตี Amazon GuardDuty ในการป้องกันภัยคุกคามที่ค้นพบได้ยาก เช่น การใช้งาน API หรือพฤติกรรมการใช้งานโมเดลภาษา LLMs ที่หวังผลร้าย Amazon Bedrock ที่จะช่วยปรับแต่งโมเดลพื้นฐานให้มีประสิทธิภาพพร้อมใช้งานมากขึ้น 

หรือ แพลตฟอร์ม IBM watsonx.governance จากไอบีเอ็ม ที่ออกแบบมาเพื่อช่วยองค์กรในการใช้โมเดลเอไอขนาดใหญ่ให้ได้ผลลัพธ์ที่ปราศจากอคติ ถูกต้องตามความเป็นจริง และสามารถอธิบายได้ เป็นต้น

แม้เอไอและเจเนอเรทีฟ เอไอจะถูกสร้างมาให้มีสติปัญญาเทียบเคียงมนุษย์ที่ให้ทั้งคุณและโทษได้ แต่หากสามารถวางมาตรการความปลอดภัยและการกำกับด้วยธรรมธิบาลที่ดีพอ เครื่องมือเหล่านี้จะกลายเป็นอาวุธสำคัญในการขับเคลื่อนธุรกิจ และสร้างความได้เปรียบในการแข่งขันที่ยั่งยืน

บทความโดย กฤตวร ตังประเสริฐผล Section Manager – Data Analytic Solution และสมิต บุญทิวาพร Technical Lead บริษัท ยิบอินซอย จำกัด

Featured Image: Freepix