เตือนภัย ! ยุคเทคโนโลยีก้าวล้ำ ปัจจุบัน “มิจฉาชีพ” มีการนำภาพใบหน้าของนักลงทุนหรือคนมีชื่อเสียง แล้วใช้ AI (ปัญญาประดิษฐ์) สร้างคลิปวิดีโอปลอมขึ้นมา โดยภาพจะสามารถขยับปากพูดได้คล้ายกับผู้ที่ถูกแอบอ้าง จึงทำให้เหยื่อหลงเชื่อ หลังจากนั้นก็ชักชวนให้ลงทุนออนไลน์ในรูปแบบต่าง ๆ ด้วยความห่วงใย Thai PBS Sci & Tech และ ตำรวจไซเบอร์ จึงขอนำ 4 วิธีป้องกันการตกเป็นเหยื่อ AI Deepfake มาให้ได้ทราบกัน
4 วิธีป้องกันคลิปปลอมที่สร้างจาก AI
1. สังเกตการพูด : ดูการขยับริมฝีปาก ถ้าเป็นคลิปที่สร้างจาก AI Deepfake การขยับริมฝีปากจะไม่สัมพันธ์กับเสียงพูดหรือใบหน้าส่วนอื่น และมีความเบลอของภาพ
2. สังเกตเนื้อหาของคลิป : มักมีเนื้อหาในการพูดที่แตกต่างไปจากแนวทางเดิม และนำเสนอถึงผลกำไรที่สูงเกินจริง เน้นการชักชวนให้ลงทุน ชักชวนสมัครสมาชิก ให้เราเริ่มเอ๊ะไว้ก่อนเลยว่าอาจจะเป็นมิจฉาชีพ
3. สังเกตองค์ประกอบของภาพ : ในบางครั้งการสร้าง AI Deepfake ก็ยังไม่แนบเนียนมาก ความสมดุลของใบหน้าอาจจะยาวผิดรูปกว่าปกติ การหันหน้าซ้าย-ขวาอาจดูไม่เป็นธรรมชาติ
4. ตั้งสติทุกครั้งก่อนหลงเชื่อ : ถ้ามีการยื่นข้อเสนอที่สูงเกินจริง ให้ตั้งสติไว้ก่อนอย่าพึ่งหลงเชื่อเด็ดขาด เพราะในปัจจุบันมิจฉาชีพมีหลากหลายรูปแบบ และอย่าโอนเงินให้ผู้อื่นโดยง่ายต้องตรวจสอบอย่างละเอียดรอบคอบ
หากพี่น้องประชาชนท่านใดตกเป็นเหยื่อโจรออนไลน์ สามารถแจ้งความผ่านระบบรับแจ้งความออนไลน์ (เฉพาะคดีอาชญากรรมทางเทคโนโลยี) ที่เว็บไซต์นี้เท่านั้น www.thaipoliceonline.go.th หรือหากมีข้อสงสัยสามารถโทร.ปรึกษาสายด่วน 1441 ได้ตลอด 24 ชั่วโมง
Thai PBS Sci & Tech เตือนภัย..ใกล้ตัว !
📌อ่าน : 3 สิ่งไม่ควรโพสต์ลงโซเชียลฯ อาจเกิดผลกระทบ-อันตรายได้
📌อ่าน : เตือนภัย ! กลโกง “บัญชีม้า” แบบใหม่ มาในรูปแบบ “นิติบุคคล”
📌อ่าน : พื้นที่ข้อมูลส่วนตัว ! แอบเข้า “มือถือ” คนอื่น อาจมีความผิดได้
📌อ่าน : เปิด 4 กลโกงบัตรอิเล็กทรอนิกส์ รู้ไว้..ไม่ตกเป็นเหยื่อ
📌อ่าน : มุกใหม่มิจฉาชีพ ! เลียนแบบ “เว็บสำนักข่าว” แฝงลิงก์ปลอมให้ “แจ้งความออนไลน์”
🎧 อัปเดตข้อมูลแวดวงวิทยาศาสตร์ เทคโนโลยี รู้ทันโลกไอที และโซเชียลฯ ในรูปแบบ Audio จาก AI เสียงผู้ประกาศของไทยพีบีเอส ได้ที่ Thai PBS
“รอบรู้ ดูกระแส ก้าวทันโลก” ไปกับ Thai PBS Sci & Tech