This is the Trace Id: 4a767e640f2338b326990220316755dc
ข้ามไปที่เนื้อหาหลัก Security Insider Cyber Pulse ขอบเขตภัยคุกคาม แนวโน้มที่เกิดขึ้นใหม่ ลงทะเบียนสำหรับสรุปย่อ CISO Microsoft Security Azure Dynamics 365 Microsoft 365 Microsoft Teams Windows 365 Microsoft AI Azure Space ความเป็นจริงผสม Microsoft HoloLens Microsoft Viva การคำนวณควอนตัม ความยั่งยืน การศึกษา ยานยนต์ บริการทางการเงิน ภาครัฐ การบริการสุขภาพ การผลิต การค้าปลีก ค้นหาคู่ค้า เป็นคู่ค้า เครือข่ายคู่ค้า Microsoft Marketplace Marketplace Rewards บริษัทพัฒนาซอฟต์แวร์ บล็อก Microsoft Advertising ศูนย์นักพัฒนา คู่มือ กิจกรรม การอนุญาตให้ใช้สิทธิ์ Microsoft Learn Microsoft Research ดูแผนผังเว็บไซต์

เข้าร่วมเซสชันคณะผู้บริหาร RSAC ในวันที่ 24 มีนาคม ในหัวข้อ "เอเจนต์ AI อยู่ที่นี่แล้ว! คุณพร้อมหรือยัง"

ลงทะเบียนเลย

คู่มือ Microsoft สำหรับการรักษาความปลอดภัยขององค์กรที่ขับเคลื่อนโดย AI

background-img

การเริ่มต้นใช้งานแอปพลิเคชัน AI

ปัญญาประดิษฐ์ (AI) กำลังพลิกโฉมการดำเนินธุรกิจ ปลดล็อกนวัตกรรม ในขณะที่ก่อให้เกิดความเสี่ยงใหม่ๆ ตั้งแต่ Shadow AI (เครื่องมือระดับผู้บริโภคที่นำมาใช้โดยไม่มีการควบคุมดูแล) ไปจนถึงการโจมตีแบบแทรกพร้อมท์ รวมถึงกฎระเบียบที่พัฒนาอย่างต่อเนื่อง เช่น กฎหมายด้าน AI ของสหภาพยุโรป องค์กรต่างๆ จะต้องจัดการกับความท้าทายเหล่านี้เพื่อใช้ AI อย่างปลอดภัย

คู่มือนี้ครอบคลุมถึงความเสี่ยงที่เกี่ยวข้องกับ AI ได้แก่ การรั่วไหลของข้อมูล ภัยคุกคามที่กำลังเกิดขึ้น และความท้าทายในการปฏิบัติตามข้อบังคับ รวมไปถึงความเสี่ยงเฉพาะของ AI แบบเอเจนต์ นอกจากนี้ คู่มือยังให้คำแนะนำและขั้นตอนปฏิบัติที่เป็นรูปธรรมที่ต้องปฏิบัติตามตามเฟรมเวิร์กการเริ่มนำ AI มาใช้ สำหรับข้อมูลเชิงลึกและขั้นตอนการดำเนินการที่เจาะลึกยิ่งขึ้น ให้ดาวน์โหลดคู่มือ

AI เป็นตัวพลิกเกมก็ต่อเมื่อคุณสามารถรักษาความปลอดภัยได้ มาเริ่มกันเลย

ความเสี่ยง 3 อันดับแรกในการรักษาความปลอดภัยของ AI


เมื่อองค์กรเปิดรับ AI ผู้นำต้องจัดการความท้าทายหลักสามประการ:
  • ผู้นำ 80% ระบุว่าการรั่วไหลของข้อมูลเป็นปัญหาสำคัญที่สุด 1
    เครื่องมือ Shadow AI ซึ่งใช้โดยไม่ได้รับการอนุมัติจากฝ่าย IT อาจเปิดเผยข้อมูลที่ละเอียดอ่อน ทำให้มีความเสี่ยงต่อการละเมิดเพิ่มมากขึ้น
  • องค์กร 88% กังวลเกี่ยวกับผู้ไม่ประสงค์ดีที่เข้ามาควบคุมระบบ AI2
    การโจมตีต่างๆ เช่น การแทรกพร้อมท์ ใช้ประโยชน์จากช่องโหว่ในระบบ AI ซึ่งเน้นย้ำถึงความจำเป็นในการป้องกันเชิงรุก
  • ผู้นำ 52% ยอมรับว่ามีความไม่แน่นอนเกี่ยวกับการจัดการกฎระเบียบด้าน AI3
    การปฏิบัติตามเฟรมเวิร์กต่างๆ เช่น กฎหมายด้าน AI ของสหภาพยุโรป ถือเป็นสิ่งสำคัญในการส่งเสริมความไว้วางใจและรักษาแรงผลักดันในการสร้างสรรค์นวัตกรรม

AI แบบเอเจนต์: ความเสี่ยงสำคัญและวิธีรับมือ

AI แบบเอเจนต์มีศักยภาพในการเปลี่ยนแปลง แต่ระบบอัตโนมัติทำให้เกิดความท้าทายด้านความปลอดภัยเฉพาะซึ่งต้องมีการจัดการความเสี่ยงเชิงรุก ด้านล่างนี้คือความเสี่ยงสำคัญและกลยุทธ์ที่ได้รับการปรับแต่งเพื่อรับมือกับความเสี่ยงเหล่านี้:

อุปาทานและผลลัพธ์ที่ไม่ได้ตั้งใจ

ระบบ AI แบบเอเจนต์อาจสร้างผลลัพธ์ที่ไม่ถูกต้อง ล้าสมัย หรือบิดเบือน ส่งผลให้การทำงานหยุดชะงักหรือตัดสินใจผิดพลาด

เพื่อบรรเทาความเสี่ยงเหล่านี้ องค์กรต่างๆ ควรนำกระบวนการตรวจสอบที่เข้มงวดมาใช้เพื่อตรวจสอบความถูกต้องและความเกี่ยวข้องของผลลัพธ์ที่สร้างโดย AI การอัปเดตข้อมูลการฝึกเป็นประจำจะช่วยให้มั่นใจว่าสอดคล้องกับข้อมูลปัจจุบัน ในขณะที่เส้นทางการยกระดับสำหรับกรณีที่ซับซ้อนช่วยให้มนุษย์สามารถดำเนินการได้เมื่อจำเป็น การควบคุมดูแลโดยมนุษย์ยังคงมีความจำเป็นต่อการรักษาความน่าเชื่อถือและความไว้วางใจในการดำเนินงานที่ขับเคลื่อนด้วย AI

การพึ่งพาการตัดสินใจของ AI มากเกินไป

การเชื่อถือระบบ AI แบบเอเจนต์โดยไม่มีการตรวจสอบอาจนำไปสู่ช่องโหว่ได้เมื่อผู้ใช้ดำเนินการกับผลลัพธ์ที่ผิดพลาดโดยไม่ตรวจสอบความถูกต้อง

องค์กรต่างๆ ควรกำหนดนโยบายที่กำหนดให้ต้องมีการตรวจสอบโดยมนุษย์สำหรับการตัดสินใจที่มีความสำคัญสูงซึ่งได้รับอิทธิพลจาก AI การฝึกอบรมพนักงานเกี่ยวกับข้อจำกัดของ AI ช่วยส่งเสริมให้เกิดความสงสัยโดยใช้ข้อมูล ซึ่งจะช่วยลดโอกาสที่จะเกิดข้อผิดพลาด การรวมข้อมูลเชิงลึกของ AI เข้ากับการตัดสินใจของมนุษย์ผ่านกระบวนการตัดสินใจแบบหลายชั้นจะช่วยเสริมสร้างความยืดหยุ่นโดยรวมและป้องกันการพึ่งพามากเกินไป

แนวทางการโจมตีใหม่ๆ

ความเป็นอิสระและความสามารถในการปรับตัวของ AI แบบเอเจนต์สร้างโอกาสให้ผู้โจมตีสามารถใช้ประโยชน์จากช่องโหว่ต่างๆ นำมาซึ่งความเสี่ยงทั้งในด้านการดำเนินงานและระบบ

ความเสี่ยงในการดำเนินงาน ได้แก่ การจัดการระบบ AI เพื่อดำเนินการที่เป็นอันตราย เช่น งานที่ไม่ได้รับอนุญาตหรือความพยายามฟิชชิ่ง องค์กรต่างๆ สามารถบรรเทาความเสี่ยงเหล่านี้ได้ด้วยการนำมาตรการรักษาความปลอดภัยที่มีเสถียรภาพมาใช้ รวมถึงการตรวจหาสิ่งผิดปกติในเวลาจริง การเข้ารหัส และการควบคุมการเข้าถึงที่เข้มงวด
ความเสี่ยงในระบบเกิดขึ้นเมื่อเอเจนต์ที่มีช่องโหว่รบกวนระบบที่เชื่อมต่อกัน ส่งผลให้เกิดความล้มเหลวแบบต่อเนื่อง กลไกป้องกันความล้มเหลว โพรโทคอลความซ้ำซ้อน และการตรวจสอบเป็นประจำซึ่งสอดคล้องกับเฟรมเวิร์กการรักษาความปลอดภัยทางไซเบอร์ เช่น NIST ช่วยลดภัยคุกคามเหล่านี้และเสริมการป้องกันต่อการโจมตีจากปรปักษ์

ความรับผิดชอบและการรับผิด

AI แบบเอเจนต์มักจะทำงานโดยไม่มีการควบคุมดูแลโดยตรงจากมนุษย์ ทำให้เกิดคำถามที่ซับซ้อนเกี่ยวกับความรับผิดชอบและการรับผิดสำหรับข้อผิดพลาดหรือความล้มเหลว

องค์กรควรกำหนดเฟรมเวิร์กความรับผิดชอบที่ชัดเจนซึ่งระบุบทบาทและความรับผิดชอบสำหรับผลลัพธ์ที่เกี่ยวข้องกับ AI คู่มือที่โปร่งใสของกระบวนการตัดสินใจด้วย AI รองรับการระบุข้อผิดพลาดและการกำหนดการรับผิด ความร่วมมือกับทีมกฎหมายช่วยให้มั่นใจได้ว่าเป็นไปตามกฎระเบียบ ในขณะที่การนำมาตรฐานทางจริยธรรมในการกำกับดูแล AI มาใช้จะสร้างความไว้วางใจและลดความเสี่ยงด้านชื่อเสียง

เริ่มต้นใช้งานแนวทางแบบเป็นขั้นตอน

เมื่อใช้นวัตกรรม AI ใหม่ๆ เช่น เอเจนต์ องค์กรต้องสร้างรากฐานที่มั่นคงตามหลักการ Zero Trust ซึ่งก็คือ "อย่าวางใจ ตรวจสอบอยู่เสมอ" แนวทางนี้ช่วยให้มั่นใจได้ว่าการโต้ตอบทุกครั้งผ่านการรับรอง ได้รับอนุญาต และตรวจสอบอย่างต่อเนื่อง แม้ว่าการบรรลุ Zero Trust จะต้องใช้เวลา แต่การใช้กลยุทธ์แบบเป็นขั้นตอนจะช่วยให้มีความคืบหน้าอย่างต่อเนื่องและสร้างความเชื่อมั่นในการผสานรวม AI อย่างปลอดภัย

 

กรอบการนำ AI มาใช้ของ Microsoft มุ่งเน้นสามขั้นตอนหลัก ได้แก่ การกำกับดูแล AI, การจัดการ AI และการรักษาความปลอดภัย AI

การแก้ไขปัญหาในพื้นที่เหล่านี้จะช่วยให้องค์กรสามารถวางรากฐานสำหรับการใช้ AI ที่รับผิดชอบพร้อมทั้งบรรเทาความเสี่ยงที่สำคัญได้

เพื่อให้ประสบความสำเร็จ ควรให้ความสำคัญกับบุคลากรโดยฝึกอบรมพนักงานให้สามารถรับรู้ความเสี่ยงจาก AI และใช้เครื่องมือที่ได้รับอนุมัติอย่างปลอดภัย ส่งเสริมการทำงานร่วมกันระหว่างทีม IT ความปลอดภัย และธุรกิจ เพื่อให้แน่ใจว่ามีแนวทางที่เป็นหนึ่งเดียว ส่งเสริมความโปร่งใสโดยการสื่อสารแผนริเริ่มด้านการรักษาความปลอดภัย AI ของคุณอย่างเปิดเผยเพื่อสร้างความไว้วางใจและแสดงความเป็นผู้นำ

ด้วยกลยุทธ์ที่ถูกต้องและยึดหลัก Zero Trust คุณสามารถลดความเสี่ยง ปลดล็อกนวัตกรรม และจัดการขอบเขต AI ที่เปลี่ยนแปลงไปได้อย่างมั่นใจ

เนื้อหาเพิ่มเติมในลักษณะนี้

ปกหนังสือที่มีข้อความว่า Microsoft Security Strategies for AI Compliance พร้อมภาพประกอบชายและหญิงกำลังดูแล็ปท็อป
5 นาที

คู่มือ Microsoft สำหรับการรักษาความปลอดภัยขององค์กรที่ขับเคลื่อนโดย AI: กลยุทธ์การปฏิบัติตามข้อบังคับของ AI

ผู้ชายกำลังมองแท็บเล็ตในมือ
3 นาที

เพิ่มคุณค่า ลดความเสี่ยง: วิธีนำ AI สร้างสรรค์ไปใช้ในองค์กรอย่างปลอดภัยและมีความรับผิดชอบ

ภาพวาดเส้นสีขาวของกระดาษในซองจดหมายที่มีคำว่า “New” บนพื้นหลังสีฟ้า

รับ CISO Digest

ก้าวนำด้วยข้อมูลเชิงลึกจากผู้เชี่ยวชาญ แนวโน้มอุตสาหกรรม และงานวิจัยด้านความปลอดภัยในอีเมลรายสองเดือนนี้

ติดตาม Microsoft Security

ไทย (ไทย) ความเป็นส่วนตัวด้านสุขภาพของผู้บริโภค ติดต่อ Microsoft ความเป็นส่วนตัว จัดการคุกกี้ ข้อตกลงการใช้งาน เครื่องหมายการค้า เกี่ยวกับโฆษณาของเรา