Cybersecurity Kids Online Privacy

Facebook เร่งมือจัดการเนื้อหาที่รุนแรงต่อเด็ก

เครื่องมือใหม่ของ Facebook จะแจ้งเตือนผู้ใช้เกี่ยวกับความเสี่ยง เมื่อมีการค้นหาหรือแชร์เนื้อหาที่รุนแรงต่อเด็ก

Facebook เปิดตัวเครื่องมือ 2 ตัวสำหรับรับมือกับเนื้อหาที่รุนแรงต่อเยาวชน ทั้งบนแพลตฟอร์มและแอปพลิเคชัน โดยตัวหนึ่งทำหน้าที่กรองเนื้อหาที่อาจรุนแรงต่อเด็กและอีกตัวสำหรับการแชร์ที่ไม่เป็นอันตราย

“เมื่อผู้ใช้ค้นหาหัวข้อที่อยู่ในกลุ่มเสี่ยงจะมีป๊อปอัพเด้งขึ้นมาเกี่ยวกับองค์กรที่ดูแลและผลทางด้านกฎหมายที่มีต่อเนื้อหา” คุณ David หัวหน้าฝ่ายความปลอดภัย Facebook Global อีกเครื่องมือหนึ่งเป็นการแจ้งเตือนความปลอดภัยสำหรับคนที่แชร์คลิปไวรอล มีมที่มีเนื้อหารุนแรงเกี่ยวกับเด็ก

“พวกเราส่งต่อการแจ้งเตือนและลบเนื้อหา จดบันทึก และรายงานไปยัง NCMEC ส่วนบัญชีที่โปรโมตเนื้อหาจะถูกลบ เราใช้ข้อมูลเชิงลึกในการระบุพฤติกรรมบุคคลที่มีโอกาสที่จะแชร์เนื้อหาดังกล่าว และให้ความรู้ว่าทำไมเนื้อหาเหล่านี้ถึงเป็นอันตราย ไม่ว่าจะเป็นแบบส่วนตัวหรือสาธารณะ”

Facebook ทำงานร่วมกับผู้เชี่ยวชาญที่ดูแลเรื่องความรุนแรงในเด็ก National Center for Missing and Exploited Children (NCMEC) จากสหรัฐฯ เพื่อทำวิจัยผู้คนที่อยู่เบื้องหลังเนื้อหาเหล่านี้ หลังจากได้รับรายงาน 150 บัญชีที่โพสต์เนื้อหาที่รุนแรงต่อเด็ก พบว่า 75% ของผู้โพสต์ไม่ได้มีเจตนาอันตราย แต่แชร์เพื่อความสนุกสนานเท่านั้น แต่อย่างไรก็ตาม Facebook ก็ยังเดินหน้าแผนความปลอดภัยให้กับเด็กๆต่อไป

จากนโยบายความปลอดภัยสำหรับเด็กของ Facebook หากพบผู้ละเมิดจะถูกลบบัญชี เพจ กลุ่ม รวมถึงบัญชี Instagram ไม่ว่าจะเป็นรูปภาพ คอมเม้น แฮชแทก หรือแคปชันที่ไม่เหมาะสม

โซเชี่ยลมีเดียส่วนใหญ่เริ่มมีมาตรการความปลอดภัยสำหรับเด็กออกมาอย่างชัดเจนแล้ว ไม่ว่าจะเป็น Parental Control สำหรับ Messenger Kids ของ Facebook หรือ Family Pairing จาก TikTok

โปรแกรมรักษาความปลอดภัย ESET Internet Security ก็มีฟีเจอร์ Parental Control สำหรับกรองเนื้อหาสำหรับเด็กในแต่ละช่วงอายุ จำกัดเวลาหรือแอปพลิเคชันที่เข้าถึงได้ เพื่อให้เด็กๆยังคงสนุกกับโลกออนไลน์ได้ และปลอดภัยในเวลาเดียวกัน

Author: Amer Owaida
Source: https://www.welivesecurity.com/2021/02/25/facebook-fight-child-abuse-content/
Translated by: Worapon H.

%d bloggers like this: