นิวส์ไวร์
พีอาร์ นิวส์ไวร์ - องค์กรที่ไม่มีนโยบายความมั่นคงปลอดภัยด้าน AI กำลังตามหลังแล้ว Armor เตือน
![]() |
Armor เปิดตัวกรอบธรรมาภิบาล AI เพื่ออุดช่องว่างเชิงนโยบายที่สำคัญ ท่ามกลางการเร่งใช้งาน AI ในระดับองค์กร
ดัลลัส, 28 มกราคม 2569 /PRNewswire/ -- Armor ผู้ให้บริการชั้นนำด้านการตรวจจับและตอบสนองภัยคุกคามแบบมีการบริหารจัดการ (MDR) บนคลาวด์ ซึ่งดูแลความมั่นคงปลอดภัยให้แก่องค์กรมากกว่า 1,700 แห่งในกว่า 40 ประเทศ ออกคำแนะนำถึงภาคองค์กรในวันนี้ว่า องค์กรที่นำเครื่องมือปัญญาประดิษฐ์มาใช้งานโดยไม่มีนโยบายธรรมาภิบาลอย่างเป็นทางการ กำลังสร้างจุดบอดที่หลีกเลี่ยงได้ในโครงสร้างความมั่นคงปลอดภัยของตนเอง และเปิดความเสี่ยงต่อการสูญหายของข้อมูล การไม่ปฏิบัติตามข้อกำกับ และภัยคุกคามเฉพาะด้าน AI รูปแบบใหม่
"หากองค์กรของคุณยังไม่ได้พัฒนาและบังคับใช้นโยบายเกี่ยวกับการใช้ AI อย่างจริงจัง แสดงว่าคุณกำลังตามหลังแล้ว" คุณ Chris Stouff ประธานเจ้าหน้าที่ฝ่ายความมั่นคงปลอดภัยของ Armor กล่าว "จำเป็นต้องมีกติกาที่ชัดเจนเกี่ยวกับข้อมูล เครื่องมือ และความรับผิดชอบ ก่อนที่ AI จะกลายเป็นภาระด้านการปฏิบัติตามกฎระเบียบและความมั่นคงปลอดภัย ผลคือพื้นที่การโจมตีที่ขยายตัว ซึ่งการควบคุมความปลอดภัยแบบดั้งเดิมไม่ได้ออกแบบมาเพื่อรับมือ และเป็นความเสี่ยงด้านการปฏิบัติตามกฎที่หลายองค์กรยังไม่ตระหนักว่าตนกำลังแบกรับอยู่" Armor ทำหน้าที่เป็นเกราะคั่นระหว่างองค์กรกับภัยคุกคาม (Armor stands Between You and The Threat™) โดยรวมถึงด้านธรรมาภิบาลด้าน AI ด้วย
ช่องว่างธรรมาภิบาล AI: ความเสี่ยงเชิงปฏิบัติการที่เพิ่มขึ้น
เมื่อองค์กรผสานเครื่องมือ AI เข้ากับกระบวนการทำงาน ตั้งแต่การบริการลูกค้าไปจนถึงการพัฒนาซอฟต์แวร์ ทีมความมั่นคงปลอดภัยต้องเผชิญความท้าทายสำคัญในการจัดทำกรอบธรรมาภิบาลที่สร้างสมดุลระหว่างนวัตกรรมกับการบริหารความเสี่ยง ผู้เชี่ยวชาญด้านความมั่นคงปลอดภัยของ Armor ระบุว่าประเด็นเร่งด่วนที่สุด ได้แก่
ช่องว่างในการป้องกันการสูญหายของข้อมูล: พนักงานป้อนข้อมูลภายในที่มีความอ่อนไหว ข้อมูลลูกค้า และซอร์สโค้ดที่เป็นทรัพย์สินทางปัญญาลงในเครื่องมือ AI สาธารณะ ซึ่งมักละเมิดนโยบายการจัดการข้อมูล และเปิดเผยทรัพย์สินทางปัญญาผ่านช่องทางที่เครื่องมือ DLP แบบเดิมไม่สามารถตรวจจับได้
การแพร่กระจายของ AI นอกระบบกำกับดูแล (Shadow AI): มีการนำเครื่องมือ AI ที่ไม่ได้รับอนุญาตมาใช้งานในหน่วยธุรกิจต่าง ๆ โดยไม่มีการรับรู้จากฝ่ายไอทีหรือทีมความมั่นคงปลอดภัย ส่งผลให้เกิดการไหลของข้อมูลที่ไร้การกำกับ และความเสี่ยงด้านการปฏิบัติตามกฎที่มักปรากฏขึ้นเมื่อมีการตรวจสอบหรือเกิดเหตุการณ์เท่านั้น
ความล้มเหลวในการบูรณาการ GRC: นโยบายการใช้ AI กำหนดแบบแยกส่วน ไม่ได้ร้อยรวมเข้ากับกรอบธรรมาภิบาล ความเสี่ยง และการปฏิบัติตามกฎ (GRC) ที่มีอยู่ ทำให้องค์กรไม่สามารถแสดงให้ผู้ตรวจสอบ หน่วยงานกำกับ หรือคู่ค้าเห็นถึงธรรมาภิบาลด้าน AI ได้เมื่อถูกสอบถาม
แรงกดดันด้านกฎระเบียบ: กฎหมายและข้อกำกับด้าน AI ที่กำลังเกิดขึ้นในหลายเขตอำนาจศาล รวมถึง EU AI Act และข้อกำหนดเฉพาะภาคส่วนในด้านสาธารณสุขและบริการทางการเงิน ซึ่งหลายองค์กรยังไม่พร้อมรองรับ
องค์กรด้านสาธารณสุขเผชิญความเสี่ยงธรรมาภิบาล AI สูงเป็นพิเศษ
ความเสี่ยงทวีความรุนแรงยิ่งขึ้นในองค์กรด้านสาธารณสุขและบริษัทเทคโนโลยีสุขภาพ ซึ่งการปฏิบัติตามกฎหมาย HIPAA ซ้อนทับกับการนำ AI มาใช้ นโยบายจำเป็นต้องกำหนดอย่างชัดเจนว่าข้อมูลประเภทใดสามารถใช้ได้ ข้อมูลจะถูกส่งไปที่ใด วิธีการตรวจสอบผลลัพธ์ และผู้ใดเป็นเจ้าของการตัดสินใจ ข้อมูลสุขภาพที่ได้รับการคุ้มครองซึ่งถูกเปิดเผยกับเครื่องมือ AI โดยไม่ตั้งใจ อาจกระตุ้นให้ต้องมีการประเมินเหตุละเมิดข้อมูล ขณะที่เอกสารทางคลินิกที่สร้างโดย AI ก็ก่อให้เกิดคำถามด้านความถูกต้อง ความรับผิด และการปฏิบัติตามข้อกำกับ
"องค์กรด้านสาธารณสุขอยู่ภายใต้แรงกดดันอย่างมากในการนำ AI มาใช้ ตั้งแต่การเพิ่มประสิทธิภาพงานธุรการไปจนถึงการสนับสนุนการตัดสินใจทางคลินิก" คุณ Stouff กล่าวเพิ่มเติม "แต่สภาพแวดล้อมด้านกฎระเบียบยังตามไม่ทัน และผลกระทบด้านความมั่นคงปลอดภัยมีนัยสำคัญ องค์กรจำเป็นต้องมีนโยบายที่ชัดเจนว่า ข้อมูลใดใช้กับเครื่องมือ AI ใดได้ วิธีตรวจสอบผลลัพธ์ และใครต้องรับผิดชอบเมื่อเกิดความผิดพลาด"
กรอบธรรมาภิบาล AI ของ Armor: เสาหลักห้าประการเพื่อความมั่นคงปลอดภัยระดับองค์กร
เพื่อช่วยให้องค์กรอุดช่องว่างด้านธรรมาภิบาล AI อย่างมีความโปร่งใส ความรับผิดชอบ และผลลัพธ์ที่เป็นรูปธรรม Armor ได้เปิดตัวกรอบการทำงานที่ตั้งอยู่บนเสาหลักสำคัญห้าประการ ได้แก่
- การจัดทำบัญชีและการจัดประเภทเครื่องมือ AI: ระบุเครื่องมือ AI ทั้งหมดที่ใช้งานอยู่ในองค์กร รวมถึงเครื่องมือที่ได้รับอนุญาตและ AI นอกระบบกำกับดูแล พร้อมจัดระดับความเสี่ยงตามการเข้าถึงข้อมูลและความสำคัญทางธุรกิจ
- นโยบายการจัดการข้อมูล: กำหนดแนวทางที่ชัดเจนว่าข้อมูลประเภทใดสามารถใช้กับเครื่องมือ AI ใดได้ โดยให้ความสำคัญเป็นพิเศษกับข้อมูลส่วนบุคคลที่ระบุตัวตนได้ (PII) ข้อมูลสุขภาพที่ได้รับการคุ้มครอง (PHI) ข้อมูลทางการเงิน และทรัพย์สินทางปัญญา
- การบูรณาการ GRC: ผสานธรรมาภิบาล AI เข้ากับกรอบการปฏิบัติตามกฎที่มีอยู่ แทนการดำเนินการแบบแยกส่วน เพื่อให้พร้อมต่อการตรวจสอบและสอดคล้องกับข้อกำกับ
- การติดตามและการตรวจจับ: นำการควบคุมทางเทคนิคมาใช้เพื่อตรวจจับการใช้เครื่องมือ AI ที่ไม่ได้รับอนุญาต และการถ่ายโอนข้อมูลไปยังบริการ AI โดยเชื่อมโยงเข้ากับระบบติดตามความมั่นคงปลอดภัยที่มีอยู่
- การฝึกอบรมและความรับผิดชอบของพนักงาน: พัฒนาการฝึกอบรมเฉพาะตามบทบาท เพื่อให้พนักงานเข้าใจความเสี่ยงและความรับผิดชอบด้าน AI พร้อมโครงสร้างความรับผิดที่ชัดเจนเมื่อมีการละเมิดนโยบาย
เกี่ยวกับ Armor
Armor เป็นผู้นำระดับโลกด้านการตรวจจับและตอบสนองภัยคุกคามแบบมีการบริหารจัดการบนคลาวด์ ได้รับความไว้วางใจจากองค์กรมากกว่า 1,700 แห่งในกว่า 40 ประเทศ Armor ให้บริการด้านความมั่นคงปลอดภัยไซเบอร์ การให้คำปรึกษาด้านการปฏิบัติตามกฎ และการป้องกันแบบมีการบริหารจัดการตลอด 24 ชั่วโมง ออกแบบมาเพื่อความโปร่งใส ความรวดเร็ว และผลลัพธ์ ด้วยการผสานความเชี่ยวชาญของมนุษย์เข้ากับความแม่นยำของ AI Armor ช่วยปกป้องสภาพแวดล้อมที่มีความสำคัญ เพื่อก้าวนำหน้าภัยคุกคามที่เปลี่ยนแปลงอย่างต่อเนื่อง และสร้างความยืดหยุ่นในระยะยาว สำหรับข้อมูลเพิ่มเติม โปรดเข้าชม armor.com หรือขอรับการประเมินความยืดหยุ่นด้านความมั่นคงไซเบอร์ (Cyber Resilience Assessment) ได้โดยไม่เสียค่าใช้จ่าย
ติดตามเราได้ทาง LinkedIn, X
การติดต่อสำหรับสื่อมวลชน:
Michele Glassman
ผู้อำนวยการฝ่ายการตลาด Armor
โทร: +1-415-430-7114
อีเมล: michele.glassman@armor.com
เว็บไซต์: www.armor.com
โลโก้ - https://mma.prnasia.com/media2/2617179/PR_Armor_Logo.jpg?p=medium600

ภาษาไทย
English
แสดงความคิดเห็น