0

ภัยเงียบในภาพถ่าย: เมื่อการ ‘ย่อขนาดรูปภาพ’ กลายเป็นอาวุธใหม่โจมตี AI

23 กันยายน 2025

ในยุคที่ปัญญาประดิษฐ์ (AI) ถูกใช้งานอย่างแพร่หลาย ตั้งแต่การตอบคำถาม การสร้างคอนเทนต์ ไปจนถึงการวิเคราะห์ข้อมูลเชิงลึก เราอาจคาดไม่ถึงว่า “รูปภาพธรรมดา” ก็สามารถซ่อนภัยคุกคามไซเบอร์ที่ร้ายแรงได้

ล่าสุด ทีมนักวิจัยจาก Trail of Bits ได้เปิดเผยช่องโหว่รูปแบบใหม่ที่อาจพลิกโฉมการโจมตี AI พวกเขาพบว่าการ “ย่อขนาดรูปภาพ” (Image Scaling) ซึ่งเป็นขั้นตอนพื้นฐานที่ระบบ AI มักทำโดยอัตโนมัติ สามารถถูกใช้เป็นอาวุธไซเบอร์ได้

การโจมตีทำงานอย่างไร?

เทคนิคนี้เรียกว่า Image Scaling Attack โดยเริ่มจากการสร้างภาพความละเอียดสูงที่ดูเหมือนภาพธรรมดาทั่วไป แต่แฝง “คำสั่งอันตราย” (Malicious Prompt) ไว้ในพิกเซลที่มองไม่เห็น เมื่อภาพถูกอัปโหลดเข้าสู่ระบบ AI แบบ Multimodal ระบบจะย่อขนาดภาพเพื่อประมวลผล สัญญาณรบกวนที่ถูกซ่อนจะถูกบีบอัดและแปลงเป็นข้อความที่ AI เข้าใจได้ คำสั่งที่ซ่อนอยู่จึงถูกปลดปล่อยออกมาโดยไม่รู้ตัว

พูดง่ายๆ คือ ภาพใหญ่ที่ดูปกติ เมื่อถูกย่อเล็กลง จะเผย “คำสั่งแฝง” ที่ถูกออกแบบมาเพื่อบงการ AI (ดูภาพตัวอย่างด้านล่าง)

ผลกระทบที่ตามมา

หากคำสั่งอันตรายถูกกระตุ้นขึ้นมา มันสามารถทำให้ AI:

  • ขโมยข้อมูล: เปิดเผยข้อมูลส่วนตัวหรือข้อมูลจากผู้ใช้รายอื่น
  • สร้างเนื้อหาที่เป็นอันตราย: ผลิตข่าวปลอม สแปม หรือแม้กระทั่งโค้ดอันตราย
  • ทำงานผิดพลาด: ตอบสนองเพี้ยน หรือปฏิเสธการให้บริการ

เพื่อพิสูจน์แนวคิดนี้ ทีมนักวิจัยได้สร้างเครื่องมือที่ชื่อ Anamorpher เพื่อสาธิตวิธีสร้างภาพโจมตีดังกล่าว แสดงให้เห็นว่าภัยคุกคามนี้สามารถเกิดขึ้นจริง ไม่ใช่แค่ทฤษฎี

ผู้ใช้งานควรป้องกันอย่างไร?

แม้การแก้ไขที่ต้นเหตุจะเป็นหน้าที่ของผู้พัฒนา AI แต่ผู้ใช้ก็สามารถลดความเสี่ยงได้ด้วย:

  1. อย่าแชร์ข้อมูลที่ละเอียดอ่อนกับ AI เช่น รหัสผ่าน เลขบัตรประชาชน ข้อมูลบัตรเครดิต หรือความลับทางธุรกิจ
  2. ระวังการใช้งานรูปภาพ เลือกใช้ภาพที่ถ่ายเองหรือมาจากแหล่งที่เชื่อถือได้ หลีกเลี่ยงการอัปโหลดภาพจากแหล่งที่ไม่น่าไว้ใจ
  3. จำไว้ว่า AI คือเครื่องมือ ไม่ใช่เพื่อนสนิท ใช้ด้วยความระมัดระวัง อย่าเชื่อหรือฝากความลับทั้งหมด
  4. ติดตามข่าวสารด้านความปลอดภัยไซเบอร์ เพื่อรู้เท่าทันและปรับตัวทันกับภัยคุกคามใหม่ๆ และอย่าลืมกดติดตาม RealSmart Academy เพื่อรับข้อมูลและบทความอัปเดตก่อนใคร

การค้นพบ Image Scaling Attack เป็นสัญญาณเตือนว่า เทคโนโลยีที่ก้าวหน้า นำมาซึ่งภัยคุกคามที่ซับซ้อนขึ้นเช่นกัน สิ่งสำคัญที่สุดคือ “การตระหนักรู้” และ “การใช้งานอย่างมีสติ” ซึ่งจะกลายเป็นเกราะป้องกันที่ดีที่สุดของเราในโลกดิจิทัลยุคนี้

ถ้าอ่านมาถึงตรงนี้แล้ว คุณเองอาจกำลังสงสัยว่า…แล้วเราจะปรับตัวสู่ยุค AI Transformation ได้ยังไง? 😊 ลองมาร่วมเรียนรู้ไปด้วยกันในหลักสูตรสุดเข้มข้น Real AI Leader รุ่น 3 ของเราเพื่อเสริมทักษะและความพร้อมให้ทันก่อนใคร

ที่มา: Trail of Bits Blog – Weaponizing Image Scaling Against Production AI Systems (อ่านเพิ่มเติมได้ที่ Trail of Bits)