ค้นหา
ทีวีออนไลน์
เว็บไซต์ในเครือ
เว็บไซต์บริการ

รู้ทัน "Deepfake" คลิปตัดต่อลวงโลก โดย AI ที่เนียนที่สุด แนะวิธีจับจุดสังเกต


Media Literacy

27 ก.ค. 66

Thai PBS Sci & Tech

Logo Thai PBS
แชร์

รู้ทัน "Deepfake" คลิปตัดต่อลวงโลก โดย AI ที่เนียนที่สุด แนะวิธีจับจุดสังเกต

https://www.thaipbs.or.th/now/content/219

รู้ทัน "Deepfake" คลิปตัดต่อลวงโลก โดย AI ที่เนียนที่สุด แนะวิธีจับจุดสังเกต
บริการเสริมจาก Thai PBS AI

หมดยุคแล้วกับภาพตัดต่อหลอกลวง ! เมื่อปัจจุบันสามารถทำได้ทั้งภาพ เสียง คลิปวิดีโอ ด้วยเทคโนโลยี Deepfake ที่จะทำให้คลิปวิดีโอหรือภาพถ่ายของบุคคลหนึ่ง ให้สามารถขยับปากตามเสียงของบุคคลอื่นได้ ซึ่งมีความเสมือนจริงทั้งใบหน้า ท่าทาง น้ำเสียง เนียนจนแทบแยกไม่ออก

Deepfake เป็นการพัฒนาระบบปัญญาประดิษฐ์ หรือ AI โดยใช้โครงข่ายประสาทเทียม (Artificial Neural Networks) เก็บข้อมูลต้นฉบับมาประมวลผลเลียนแบบ และใช้ Machine Learning ชื่อ Generative Adversarial Networks (GANs) สังเคราะห์ให้สมบูรณ์ใกล้เคียงต้นฉบับมากที่สุด อย่างในอุตสาหกรรมบันเทิง นำมาสร้างเทคนิคพิเศษ ตัดต่อใบหน้านักแสดงอย่างแนบเนียนในกรณีที่ไม่สามารถถ่ายทำได้ เช่นกรณีของ “พอล วอล์กเกอร์” ที่เสียชีวิตระหว่างการถ่ายทำภาพยนตร์ ทางกองถ่ายจึงได้นำใบหน้ามาตัดต่อในฉากสุดท้าย หรือการสร้างความมีชีวิตชีวาในแกลอรี หรือพิพิธภัณฑ์

ล่าสุดที่เกาหลีใต้และจีน ได้สร้างผู้ประกาศข่าว AI เพื่อแก้ปัญหาการขาดแคลนผู้ประกาศข่าวเมื่อมีข่าวด่วน หรือเมื่อมีความจำเป็นที่ต้องรายงานข่าวตลอด 24 ชั่วโมง เพื่อทดแทนความเหนื่อยล้าที่เกิดขึ้นในคน

เมื่อย้อนไปดูข้อมูลจาก DeepTrace เดือน ก.ย. 2019 พบวิดีโอ Deepfake 15,000 รายการ เพิ่มขึ้นเกือบ 2 เท่าในช่วง 9 เดือนที่ผ่านมา โดยพบว่าเป็นวิดีโออนาจารถึง 96% ซึ่งการทำ Deepfake นั้น แม้เป็นคนที่ไม่เชี่ยวชาญก็สามารถสร้างวิดีโอปลอมด้วยภาพถ่ายเพียงไม่กี่ภาพได้ จึงมีแนวโน้มแพร่กระจายไปได้ไกลทั่วโลก

Deepfake เกิดขึ้นเมื่อปี 2017 คณะผู้วิจัยจากมหาวิทยาลัยวอชิงตัน ใช้ AI สร้างเค้าโครงปากของ “บารัค โอบามา” อดีตประธานาธิบดีสหรัฐอเมริกา และผสานเข้ากับภาพวิดีโอของโอบามาที่เผยแพร่ผ่านสื่อต่าง ๆ ก่อนนำเสียงของบุคคลอื่นใส่ผสานในใบหน้าได้อย่างแนบเนียน

หลังจากนั้นได้มีผู้ใช้ Reddit ที่มีชื่อว่า Deepfake โพสต์คลิปโป๊โดยปลอมใบหน้าของคนดังอย่าง กัล กาด็อต, เทย์เลอร์ สวิฟต์, สการ์เลตต์ โจแฮนส์สัน และคนอื่น ๆ จนนำมาสู่การใช้เพื่อก่อกวน ข่มขู่ สร้างความเสียหายแก่บุคคลหรือองค์กร รวมไปถึงการทำลายความมั่นคงของชาติด้วย

โดยคนดังที่ถูกนำมาทำ Deepfake เช่น “บารัค โอบามา” กล่าวถึง “โดนัลด์ ทรัมป์”ด้วยถ้อยคำหยาบคาย หรือ “มาร์ค ซักเคอร์เบิร์ก” ผู้ก่อตั้งเฟซบุ๊ก กล่าวว่า นโยบายของเฟซบุ๊กคือหาประโยชน์จากผู้ใช้งาน หรืออย่าง “ทอม ครูซ” ที่ถูกคนนำไปเลียนแบบใบหน้าเพื่อถ่ายวิดีโอลง TikTok จนทำให้เกิดความสับสน นอกจากนี้ยังมี “ประธานาธิบดีโวโลดีมีร์ เซเลนสกี” ผู้นำประเทศยูเครน ถูกนำไปสร้างโฆษณาชวนเชื่อหลอกให้ชาวยูเครนยอมจำนนในช่วงเวลาของความขัดแย้งระหว่างยูเครนกับรัสเซีย เป็นต้น

สงสัยหรือไม่ว่าเหตุใด Deepfake เหล่านี้ ส่วนใหญ่มักจะใช้ใบหน้าของคนดัง เป็นเพราะว่าคนกลุ่มนี้มีข้อมูลที่เปิดเผยบนสาธารณะจำนวนมาก ทั้งรูปเซลฟี่ รูปภาพทั่วไป เสียง หรือคลิปวิดีโอต่างๆ จึงทำให้ง่ายต่อการนำไปปลอมแปลง

ส่วนในประเทศไทยเองก็มี “แก๊งคอลเซนเตอร์” ที่ใช้ Deepfake ปลอมเป็นตำรวจ เพื่อวิดีโอคอลหาเหยื่อเพิ่มความน่าเชื่อถือ จนเหยื่อหลงเชื่อและโอนเงินไปให้ก็มีให้เห็นตามข่าวอยู่บ่อยครั้ง หรืออย่างการนำใบหน้าและเสียงของนักการเมืองไทย มาสร้างคอนเทนต์ปลอม ๆ บนโลกโซเชียลมีเดียก็ยังมีคนหลงเชื่อหรือมองเป็นเรื่องขำขันแทน

แน่นอนว่า “ความเชื่อ” ย่อมง่ายกว่า “การตั้งข้อสงสัย” แต่จะเกิดอะไรขึ้น ? หากเราไม่สามารถเชื่อในสิ่งที่เห็นและได้ยินอีกต่อไป ผลกระทบที่เกิดขึ้นจาก Deepfake ไม่เพียงแต่เป็นความเสียหายต่อการใช้ชีวิตและทรัพย์สินเท่านั้น แต่ยังรวมไปถึงการที่ทำให้คนในสังคมขาดการใช้วิจารณญาณ เมื่อคนไม่สามารถแยกแยะได้ว่าสิ่งไหนคือเรื่องจริง สิ่งไหนที่คือเรื่องที่ถูกสร้างขึ้น จะก่อให้เกิดสังคมที่ไร้ความน่าเชื่อถือ หรืออาจทำให้สังคมสับสนว่าแหล่งข้อมูลใดน่าเชื่อถือ จนอาจส่งผลให้สังคมเกิดความเฉยชา ไม่มีความรู้สึกร่วมกับสิ่งที่เกิดขึ้นก็เป็นได้

ดังนั้น หากไม่อยากตกหลุมพราง Deepfake เราลองมาดูกันว่า จะมีวิธีไหนบ้างที่จะสามารถจับสังเกตว่า สิ่งที่เห็นและได้ยิน เป็นของจริงหรือปลอม..?

ดร.วินน์ วรวุฒิคุณชัย Data Scientist CEO และผู้ก่อตั้ง BOTNOI Group บริษัทผู้พัฒนาแชตบอตสัญชาติไทย ในฐานะผู้เชี่ยวชาญการสร้างเสียงจาก AI และผู้มีส่วนร่วมในการทำ "Text To Speech" บริการอ่านให้ฟัง" ในเว็บไซต์ www.thaipbs.or.th จะมาให้ความรู้ คำแนะนำ พร้อมวิธีการสังเกตว่าเสียงไหนคือเสียงจาก AI

Credit: freepik

3 จุดสังเกต “เสียง AI” แตกต่างจากเสียงมนุษย์จริง

1. จังหวะการเว้นวรรค สิ่งที่ AI ยังผิดพลาดอยู่เป็นเรื่องของอารมณ์ จะไม่มีจังหวะหยุด จะพูดรัวยาวไปเลย

2. ชื่อเฉพาะ คำทับศัพท์ ยังไม่ค่อยเนียน เช่น อูเบอร์ เวลาพูดจะเป็น “อู-เบ้อ” แต่เมื่อให้ AI อ่านจะเป็น “อูเบอ” เนื่องจากสมองคนเรามี DATA อยู่จำนวนมาก จะทำให้แยกออกได้ว่า คำไหนที่ควรจะเป็นเสียงสูงหรือเสียงต่ำ เช่น อูเบอร์ กับ เบอร์โทรศัพท์ มีคำว่า “เบอร์” เหมือนกัน แต่ออกเสียงไม่เหมือนกัน ซึ่งหากผิดเพี้ยนไปก็ตั้งสมมติฐานได้ว่าอาจจะเป็น AI

3. โทนเสียงโมโนโทน เป็นเสียงเดียวราบเรียบ ไม่มีเสียงสูงเสียงต่ำ ไม่ได้เน้นความสำคัญของคำบางคำ

“ต้องยอมรับว่า AI พัฒนาเร็ว ณ วันนี้ เราอาจจะจับสังเกตได้ แต่อีก 1-2 ปี หรือเร็วกว่านั้น AI จะเก่งขึ้น การจับสังเกตก็อาจจะยากขึ้น ดังนั้น ต้องให้ความรู้ว่าสิ่งที่เราได้ยินบนโลกโซเชียลอาจจะเป็นของปลอม เราอาจจะไม่ได้ดูแค่โซเชียลแต่อาจจะดูเนื้อหา บริบทนั้นด้วย หรือดูคอมเมนต์ ตรวจสอบหลาย ๆ ช่องทาง ซึ่งตอนนี้ต้องช่วยกันกระจายข่าวว่าเทคโนโลยีไปถึงไหนแล้ว มีความธรรมชาติมากแค่ไหน” ผู้เชี่ยวชาญการสร้างเสียงจาก AI กล่าว

ดร.วินน์ กล่าวต่อว่า เทคโนโลยีสามารถสร้าง “ลายน้ำ” บนเสียงได้ด้วย เพื่อให้รู้ว่าเสียงดังกล่าวเป็นเสียงจาก AI ไม่ใช่มนุษย์ โดยขณะที่อยู่ในกระบวนการสร้างสามารถแอบซ่อนลายน้ำ ซึ่งเป็น “คลื่นเสียง” บางอย่าง โดยที่คนทั่วไปอาจไม่ได้สังเกต ยกเว้นว่าเอาไปผ่านกระบวนการพิสูจน์ ก็เหมือนกับรูปภาพที่สามารถใส่ลายน้ำเข้าไปได้

“ดังนั้น อย่าด่วนตัดสินใจเชื่ออะไรตั้งแต่แรกเห็น ให้ดูเนื้อหาว่าเกี่ยวกับอะไร มีความไปเป็นได้มากน้อยแค่ไหน มีการตรวจสอบ เพราะนับวันเทคโนโลยียิ่งใกล้เคียงธรรมชาติมากขึ้น ไม่ใช่แค่ภาคประชาชน แต่หน่วยงานภาครัฐก็ต้องหาวิธีรับมือเรื่องนี้ด้วยเช่นกัน” ดร.วินน์ กล่าว

Credit: UC Berkeley video by Roxanne Makasdjian and Stephen McNally

จับจุดสังเกต “ใบหน้า”

Deepfake ที่มีคุณภาพต่ำจะตรวจจับได้ง่ายกว่า โดยสามารถสังเกตได้ดังนี้
• การซิงก์ริมฝีปาก การขยับปากจะแปลก ๆ ไม่สอดคล้องกับเสียงในวิดีโอ ไม่เป็นธรรมชาติ
• ใบหน้า มีลักษณะที่ผิดสัดส่วนหรือผิดธรรมชาติ โดยเฉพาะเมื่อก้มเงยหน้าหรือหันซ้ายหันขวา 
• สีผิวเข้มอ่อนเป็นหย่อม ๆ ความเรียบและรอยเหี่ยวย่นบริเวณแก้มและหน้าผาก สอดคล้องกับผิวพรรณ
• การกะพริบตาถี่เกินไป หรือน้อยเกินไป 
• เส้นผม ฟัน เครื่องประดับ แสงที่ไม่สม่ำเสมอ
• แสงสะท้อนบนดวงตาและคิ้ว เงาที่ปรากฏบนคลิป 
• หนวด เครา จอน ขาดความเงางามหรือมีมากเกินไป 
•  แว่นตา แสงตกกระทบ แสงสะท้อนมีมากเกินไปหรือไม่ มุมของแสงสะท้อนเปลี่ยนไปเมื่อบุคคลเคลื่อนไหวหรือไม่

Detect Fake.JPG

ชี้ช่องทางตรวจสอบ Deepfake

หากสังเกตแล้วยังไม่มั่นใจว่า ใช่ของจริงหรือไม่ สามารถเข้าไปเช็กได้ที่นี่

• เว็บฟรีสำหรับการตรวจสอบวิดีโอ Deepfake เบื้องต้น > https://scanner.deepware.ai/ 
• MIT (Massachusetts Institute of Technology) หรือ สถาบันเทคโนโลยีแมสซาชูเซตส์ ได้สร้างเว็บไซต์ “Detect Fakes” ที่แสดงวิดีโอ Deepfake และของจริงคุณภาพสูงหลายพันรายการจากชุดข้อมูล DFDC สู่สาธารณะ เพื่อให้ผู้เข้าชมได้ลองแยกแยะว่าเนื้อหาแบบไหนเป็นของจริง หรือปลอม ลองไปฝึกเล่นกันได้ที่นี่ > https://detectfakes.media.mit.edu/

แต่อย่างไรก็ตามคงไม่ใช่ทั้งหมดที่จะสามารถตรวจสอบได้ชัดเจน จากข้อจำกัดต่าง ๆ ซึ่งนักวิจัยทั่วโลกก็กำลังพัฒนาให้การตรวจจับ Deepfake เท่าทันเทคโนโลยีที่ก้าวล้ำเข้าไปทุกวัน

การเกิดขึ้นของเทคโนโลยี Deepfake นี้ ทำให้สมาชิกสภาคองเกรสแห่งสหรัฐอเมริกา ร้องขอรายงานอย่างเป็นทางการจากผู้อำนวยการข่าวกรองแห่งชาติ พร้อมทั้งหามาตรการควบคุมผลกระทบจากการแพร่ของ Deepfake ซึ่งกำลังบ่อนทำลายความน่าเชื่อถือไปทั่วโลก

ขณะที่ เมื่อ 21 มิ.ย. ที่ผ่านมา “โจ ไบเดน” ประธานาธิบดีสหรัฐอเมริกา หารือกับบริษัทเทคโนโลยียักษ์ใหญ่ 7 แห่ง ที่กำลังพัฒนา AI ประกอบด้วยบริษัท Amazon, Anthropic, Google, Inflection, Meta, Microsoft, และ OpenAI เนื่องจากมีความกังวลว่าการพัฒนา AI ที่รวดเร็วเกินไปและไม่คำนึงถึงผลกระทบที่ตามมา จะทำให้เกิดผลเสียมากกว่าผลดี ซึ่งทั้ง 7 บริษัทได้ให้สัญญาว่าจะพัฒนา AI โดยคำนึงถึงเรื่องความปลอดภัย, ความมั่นคง, และความน่าเชื่อถือ เป็นหลักสำคัญ พร้อมกับได้กำหนดมาตรการควบคุม โดยการใส่เครื่องหมายลงบนเนื้อหาทุกรูปแบบ ไม่ว่าจะเป็นข้อความ รูปภาพ วิดีโอ หรือไฟล์เสียง เพื่อให้ผู้ใช้งานได้รู้ว่าคอนเทนต์ดังกล่าวนั้น มาจาก AI

แต่อย่างไรก็ตาม ยิ่งจับจุดสังเกต ยิ่งถูกแก้ไขให้เนียนขึ้น ดังนั้น สิ่งที่ต้องสร้างและสามารถติดตัวไปได้ตลอด คือ “ความตระหนักรู้” ให้คนเห็นถึงการเปลี่ยนแปลงของเทคโนโลยีที่ล้ำหน้ามากขึ้น และการฝึกคิดตั้งข้อสงสัยในบริบทของเนื้อหาว่าเป็นไปได้แค่ไหน รวมไปถึงผลกระทบที่อาจเกิดขึ้นเมื่อ “เชื่อ” เนื้อหาหลอกลวงเหล่านี้

ที่มา
Bigdata.go.th, Cofact.org, The guardian, CNN, Truedigitalpark
 

แท็กที่เกี่ยวข้อง

Deepfakeข่าวปลอมFake Newsคลิปตัดต่อ
Thai PBS Sci & Tech
ผู้เขียน: Thai PBS Sci & Tech

🌎 "รอบรู้ ดูกระแส ก้าวทันโลก" ไปกับ Thai PBS Sci & Tech • วิทยาศาสตร์ • เทคโนโลยี นวัตกรรม • ดาราศาสตร์ • Media Literacy • Cyber Security • Tips & Tricks • Trends

บทความ NOW แนะนำ

ข่าวล่าสุด