องค์กรจำนวนมากเร่งนำ AI เข้ามาใช้ในระบบงาน ทำให้เอกสาร การคุยงาน และไฟล์ต่างๆ ถูกอัปโหลดเข้าสู่เครื่องมือเหล่านี้อย่างต่อเนื่อง หากใช้ บัญชีส่วนบุคคล ที่ยังไม่ได้ตั้งค่าให้ระบบไม่นำข้อมูลเราไปเผยแพร่ เนื้อหาที่คุยจะถูกนำไปใช้เพื่อปรับปรุงและพัฒนาโมเดลตามค่าเริ่มต้น ซึ่งหมายความว่าข้อมูลขององค์กรอาจเกิดการรั่วไหลออกไปยังภายนอก
และนี่ไม่ใช่การถูกแฮ็ก แต่เป็น การรั่วไหลแบบสมัครใจ ที่เกิดจากการตั้งค่าที่ยังไม่ถูกต้อง ทำให้เกิด ความเสี่ยงเชิงองค์กรจริง ตั้งแต่การละเมิดข้อตกลงลูกค้า ไปจนถึงการเสียความได้เปรียบทางการแข่งขัน
ดังนั้น ผมจึงอยากแชร์วิธีการที่จะช่วยให้ข้อมูลขององค์กรคุณปลอดภัยมากขึ้น
สาเหตุที่ข้อมูลของคุณเกิดการรั่วไหล
เมื่อสร้างบัญชี ChatGPT ระบบจะเปิดฟีเจอร์ “ช่วยปรับปรุงโมเดลสำหรับทุกคน” (Improve the model for everyone) โดยอัตโนมัติ หลายคนไม่ได้สังเกตหรือไม่เข้าไปตรวจสอบการตั้งค่านี้ นั้นหมายความว่าการตั้งค่านี้จะทำให้ สิ่งที่คุณแชทกับ AI อาจถูกนำไปใช้ฝึกโมเดล AI
วิธีแก้ไข
- เข้าไปที่ Settings ของ ChatGPT
- หา “Data Controls” หรือ “Privacy”
- ปิดฟีเจอร์ “Improve the model for everyone”
การใช้ Ai ที่ดีต้องเข้าใจและปลอดภัย
องค์กรที่ชนะไม่ใช่องค์กรที่แค่เร็วที่สุด แต่คือองค์กรที่ รู้ว่าอะไรควรเร่ง และอะไรควรกั้น เขียนกติกาให้ชัด แล้วระบบจะทำงานแทนคนอย่างปลอดภัย
และอย่าลืมเรื่อง การรักษาความปลอดภัยของข้อมูล: อย่าพิมพ์ข้อมูลที่เป็นความลับ สัญญา หรือหมายเลขลูกค้าแบบเต็ม หากต้องการขอคำแนะนำ ให้ปิดบังหรือลบข้อมูลสำคัญออก ก่อนเสมอ