AI • ธุรกิจ • เทคโนโลยี
ภัยคุกคามไซเบอร์พุ่งสูงในปี 2025: AI กลายเป็นเครื่องมือหลักของอาชญากรไซเบอร์
ประเทศไทยกำลังเผชิญกับภัยคุกคามทางไซเบอร์ที่รุนแรงขึ้นในปี 2025 โดยเฉพาะการใช้ AI ของอาชญากรไซเบอร์ ส่งผลให้องค์กรต่างๆ ต้องยกระดับมาตรการป้องกันอย่างเร่งด่วน
ภัยคุกคามไซเบอร์พุ่งสูงในปี 2025: AI กลายเป็นเครื่องมือหลักของอาชญากรไซเบอร์
โดย: The White Hat
ผู้เชี่ยวชาญด้านความมั่นคงปลอดภัยทางไซเบอร์
คำเตือน: ประเทศไทยกำลังเผชิญหน้ากับพายุแห่งภัยคุกคามทางไซเบอร์ที่ทวีความรุนแรงและซับซ้อนมากขึ้นอย่างที่ไม่เคยมีมาก่อน โดยเฉพาะอย่างยิ่งในปี 2025 นี้ การเข้ามาของปัญญาประดิษฐ์ (AI) ไม่เพียงแต่เปลี่ยนโฉมหน้าธุรกิจ แต่ยังกลายเป็นอาวุธชิ้นใหม่ที่ทรงพลังในมือของอาชญากรไซเบอร์อีกด้วย ข้อมูลล่าสุดชี้ให้เห็นว่าองค์กรในไทยกว่าครึ่งต้องเผชิญกับการละเมิดข้อมูล (Data Breach) และเกือบครึ่งต้องยอมจ่ายค่าไถ่ (Ransomware) [3]
AI: ดาบสองคมในโลกไซเบอร์
ในยุคที่การทำงานแบบรีโมทและการใช้คลาวด์เป็นไปอย่างแพร่หลาย พื้นที่ผิวของการโจมตี (Attack Surface) ก็กว้างขึ้นอย่างมหาศาล อาชญากรไซเบอร์ได้นำ AI มาใช้เพื่อเพิ่มประสิทธิภาพและทำให้การโจมตีเป็นไปโดยอัตโนมัติ ไม่ว่าจะเป็นการพยายามเข้าสู่ระบบด้วยข้อมูลประจำตัวที่ถูกขโมย (Credential Stuffing) หรือการโจมตีแบบปฏิเสธการให้บริการ (DDoS) ที่ควบคุมโดยบอท [3] สถิติที่น่าตกใจคือ 94% ของความพยายามในการล็อกอินที่ใช้ข้อมูลประจำตัวที่ถูกขโมยนั้นมาจากบอท ขณะที่ Generative AI ถูกนำมาใช้สร้างตัวตนปลอมที่แนบเนียนจนแยกไม่ออก [3]
การโจมตีที่พุ่งสูงและหลากหลาย
จากการรายงานของสำนักงานคณะกรรมการการรักษาความมั่นคงปลอดภัยไซเบอร์แห่งชาติ (NCSA) ในช่วง 5 เดือนแรกของปี 2025 ประเทศไทยเผชิญกับเหตุการณ์ไซเบอร์กว่า 1,002 เหตุการณ์ [3] ซึ่งสะท้อนให้เห็นถึงความรุนแรงของปัญหาที่ทวีความซับซ้อนขึ้น โดยภัยคุกคามที่พบมากที่สุดในภูมิภาคอาเซียน รวมถึงประเทศไทย ประกอบด้วย การโจมตีแบบฟิชชิ่ง (Phishing Attacks) คิดเป็น 42.9%, มัลแวร์และแรนซัมแวร์ (Malware and Ransomware) 37% และปัญหาการขาดแคลนบุคลากรด้านความมั่นคงปลอดภัยไซเบอร์ (Shortage of Cybersecurity Talent) อีก 37% [4]
ในส่วนของการโจมตีแบบฟิชชิ่งและการหลอกลวงทางสังคม (Social Engineering) อาชญากรไซเบอร์ใช้เทคนิคที่ซับซ้อนมากขึ้น โดยใช้ AI สร้างการสื่อสารปลอมที่น่าเชื่อถือเพื่อหลอกลวงผู้ใช้ให้เปิดเผยข้อมูลส่วนตัว [4] ซึ่งส่งผลให้ลูกค้าธนาคารในไทยสูญเสียเงินกว่า 6 หมื่นล้านบาทในช่วงสองปีที่ผ่านมาจากการฉ้อโกงออนไลน์ [4] นอกจากนี้ การโจมตีที่มุ่งเป้าไปที่โครงสร้างพื้นฐานสำคัญ เช่น ภาคการเงิน พลังงาน และการดูแลสุขภาพ ก็ยังคงเป็นเป้าหมายหลัก โดย AI ถูกนำมาใช้สร้างมัลแวร์ที่สามารถหลบเลี่ยงระบบป้องกันได้ [5]
การรับมือและวิธีป้องกัน
เมื่อเผชิญหน้ากับภัยคุกคามที่ซับซ้อนและขับเคลื่อนด้วย AI องค์กรและบุคคลทั่วไปจำเป็นต้องปรับเปลี่ยนแนวทางการป้องกันให้ทันสมัย วิธีป้องกันที่ง่ายที่สุดคือการยกระดับการป้องกันด้วย AI เช่นกัน [3]
- การตรวจจับภัยคุกคามอัตโนมัติ: ใช้ระบบ AI ที่สามารถตรวจจับและวิเคราะห์ภัยคุกคามได้อย่างรวดเร็วและแม่นยำ
- การใช้ระบบป้องกันที่ขับเคลื่อนด้วย AI: ติดตั้งโซลูชันด้านความปลอดภัยที่ใช้ AI ในการป้องกันภัยคุกคามแบบเรียลไทม์
- การควบคุมที่รัดกุม: ใช้มาตรการควบคุมเพื่อตรวจจับ "Shadow AI" หรือเครื่องมือที่ไม่ได้รับการอนุมัติซึ่งพนักงานอาจนำมาใช้โดยพลการและหลบเลี่ยงนโยบายความปลอดภัย [3]
- การยืนยันตัวตนหลายปัจจัย (Multi-Factor Authentication - MFA): การใช้ MFA จะช่วยเพิ่มความปลอดภัยในการเข้าสู่ระบบได้อย่างมาก โดยเฉพาะอย่างยิ่งเมื่อ AI สามารถถอดรหัสผ่านได้ง่ายขึ้น [6]
- การพัฒนาบุคลากร: แม้ว่า AI จะเข้ามาช่วยได้ แต่การขาดแคลนบุคลากรที่มีทักษะด้านความมั่นคงปลอดภัยไซเบอร์ยังคงเป็นปัญหาใหญ่ [5] องค์กรควรลงทุนในการฝึกอบรมและพัฒนาบุคลากรให้เท่าทันกับเทคโนโลยีที่เปลี่ยนแปลงไป [4]
- การบริหารจัดการข้อมูล (Data Governance): ธุรกิจที่นำ AI มาใช้ โดยเฉพาะ Generative AI ต้องให้ความสำคัญกับการปกป้องข้อมูลและความเป็นส่วนตัว [16] การมีนโยบายที่ชัดเจนเกี่ยวกับการพัฒนาและการใช้งานโมเดล AI รวมถึงการตรวจสอบกระบวนการตัดสินใจของ AI อย่างสม่ำเสมอ จะช่วยสร้างความไว้วางใจได้ [16]
Actionable Tip: เริ่มต้นด้วยการประเมินความเสี่ยงขององค์กรคุณเอง ใช้เครื่องมือที่สามารถตรวจจับภัยคุกคามที่ขับเคลื่อนด้วย AI และที่สำคัญที่สุดคือการฝึกอบรมพนักงานของคุณให้ตระหนักถึงภัยคุกคามรูปแบบใหม่ๆ นี้ การรักษาความปลอดภัยทางไซเบอร์ไม่ใช่แค่เรื่องของฝ่าย IT อีกต่อไป แต่เป็นความรับผิดชอบของผู้บริหารระดับสูงและพนักงานทุกคน