Cybersecurity Privacy Social Media

Deepfake: เมื่อสิ่งที่คุณเห็นไม่ใช่ความจริง

ความเป็นจริงกับสิ่งที่คุณเห็นอาจไม่ได้เป็นสิ่งเดียวกัน (DeepFake)

Deepfake กลายเป็นสิ่งที่เปิดประตูให้กับอาชญากรรมไซเบอร์ ด้วยวิดีโอปลอมที่ตลกหรือเป็นอันตราย ซึ่งอาจถูกนำไปใช้ในทางการเมือง อาชญากรรมไซเบอร์ หรืออื่นๆ

Deepfake เป็นโปรแกรม AI (Artificial Intelligence) ที่สามารถสร้างวิดีโอขึ้นมาด้วยการนำวิดีโออื่นๆมาต่อกัน หรือเอาภาพลักษณ์และเสียงของคนจริงๆมาใช้ซ้ำ ทำให้วิดีโอดูเหมือนของจริงหลายครั้งมีวิดีโอที่ผู้มีชื่อเสียงพูดอะไรรูนแรง หรือไม่จริง

จากงานวิจัยพบว่าการสร้างวิดีโอด้วย Deepfake มีมากขึ้น คุณภาพก็สูงขึ้น ในวิดีโอนี้ที่ Bill Hader เปลี่ยนเป็น Tom Cruise และ Seth Rogan อย่างรวดเร็วและลื่นไหลมากๆ นี่เป็นตัวอย่างที่แสดงให้เห็นว่าวิดีโอพวกนี้เหมือนจริงแค่ไหน และถ้าหากคุณค้นหาคำว่า Deepfake จะพบว่ามีวิดีโอพวกนี้มากแค่ไหน

ความเป็นจริงแล้ว Deepfake ถูกใช้สำหรับฉ้อโกง เช่น เสียงของผู้บริหารบริษัทหนึ่งที่โทรมาเพื่อให้บริษัทลูกโอนเงินจำนวนกว่า 220,000 ยูโรไปยังบัญชีของชาวฮังการีทันที

ภาพลวงหลอกตา

เราอาจเห็นภาพนู้ดหรือภาพเปลือยของผู้ที่มีชื่อเสียงอยู่บ่อยๆ ซึ่งนั่นใช้เวลาไม่ถึงนาที แม้ว่าแอปพลิเคชั่นอย่าง DeepNude จะถูกสั่งปิดแล้วแต่เจ้าเทคโนโลยีก็ยังมาในรูปแบบหรือเทคโนโลยีอื่นๆ

เทคโนโลยีนี้เป็นที่นิยมมากในเนื้อหาสำหรับผู้ใหญ่ สำนักข่าว BBC บอกว่า “96% ของวิดีโอเหล่านี้เป็นใบหน้าของเซเลบผู้หญิงที่มีชื่อเสียงไปตัดต่อโดยที่เจ้าตัวไม่รู้”

รัฐแคลิฟอร์เนียพยายามทำให้การทำสื่อลามกด้วย Deepfake โดยไม่ได้รับอนุญาตจากเจ้าของเป็นเรื่องผิดกฎหมาย

เราเชื่อว่าอีกไม่นานการถ่ายภาพไม่กี่ภาพลงบนโซเชี่ยลมีเดียอาจเป็นวัตถุดิบที่มากเพียงพอในการทำวิดีโอด้วย Deepfake และเราอาจได้เห็นวิดีโอของคนใกล้ตัวของคุณ โดยไม่อาจทราบได้ว่าเป็นของจริงหรือไม่ และมิจฉาชีพออนไลน์ก็อาจจะใช้ประโยชน์จากตรงนี้ในการหลอกลวงข้อมูลสำคัญหรือเงินจากผู้ใช้ได้

สิ่งที่เราสามารถทำได้ก็คือการให้ความรู้ผู้ใช้ว่า Deepfake เป็นอย่างไร ทำงานอย่างไร และคนที่อยู่ภายในวิดีโออาจไม่ใช่เขาจริงๆ

เทคโนโลยีควรพัฒนาการตรวจจับ Deepfake เหมือนเป็น Machine Learning ด้านตรงกันข้ามกัน ท้ายที่สุดแพลตฟอร์มโซเชี่ยลมีเดียควรทราบถึงความเป็นไปได้ของปัญหาและผลกระทบ

ส่วนตัวผมชอบการพัฒนาเทคโนโลยีและเห็นการเปิดตัวต่างๆนาๆ แต่อย่างไรเราก็ไม่ควรลืมไปว่าเทคโนโลยีอาจส่งผลอันตรายได้ในทางใดทางหนึ่ง โดยเฉพาะ Machine Learning ที่เติบโตอย่างรวดเร็ว

Author: Jake Moore
Source:
https://www.welivesecurity.com/2019/10/31/deepfakes-seeing-isnt-believing/
Translated by: Worapon H.

%d bloggers like this: