Site icon Thumbsup

Facebook เพิ่มการใช้ระบบ AI เพื่อตรวจจับคอนเทนต์ก้าวร้าว

งานควบคุมคอนเทนต์ที่ส่อไปทางสุ่มเสี่ยง ไม่ว่าจะเป็นเรื่องลามก ก้าวร้าว ดูถูก หรือเสียดสี ดูเป็นงานที่น่าเบื่อ จำเจ เป็นเพียงงานที่กลุ่มบรรณาธิการเขาทำกัน แต่ความจริงแล้วมันแย่กว่าที่คิด

ปัจจุบันมีพนักงานกว่า 100,000 คนทั่วโลก โดยเฉพาะในฟิลิปปินส์และอเมริกาที่ทำหน้าแสกนคอนเทนต์ในโลกออนไลน์ ไม่ว่าจะเป็นคอนเทนต์ประเภทลามก สร้างความเกลียดชัง ข่มขู่ ดูถูกหรือคอนเทนต์ที่น่าขยะแขยงอื่นๆ ซึ่งการที่ต้องมานั่งมอนิเตอร์คำพูดเหล่านี้มีความเชื่อมโยงกับภาวะเครียด และอาจกลายเป็นแผลเป็นทางใจไปทั้งชีวิตถ้าไม่ได้รับการรักษาทันท่วงที

แม้จะไม่ได้ออกมาพูดอย่างเป็นทางการ แต่ไม่ได้หมายความว่า Facebook รวมถึง Twitter, Google, Netflix, Youtube และเจ้าอื่นๆ ไม่ทำอะไรเลย ซึ่งตอนนี้แต่ละเจ้าเองก็พยายามหาทางหยุดปัญหาดังกล่าว โดยไม่ใช่แค่ลดหรือควบคุมคอนเทนต์แย่ๆ ที่จะแสดงผลในแพลทฟอร์ม แต่พัฒนา AI เพื่อมาทำหน้าที่นี้แทนมนุษย์ด้วย

ล่าสุดวิศกรที่ Facebook ก็ออกมาแถลงว่าระบบ AI สามารถจับพวกคำก้าวร้าวได้มากกว่ามนุษย์แล้ว

Joaquin Candela ซึ่งเป็นหัวหน้าวิศวกรฝ่ายที่พัฒนา AI เล่าว่า “สิ่งหนึ่งที่น่าสนใจคือทุกวันนี้ AI สามารถตรวจจับรูปภาพที่ส่อไปในทางก้าวร้าวได้มากกว่ามนุษย์” และ “ยิ่งระบบตรวจจับได้มาก คนก็เห็นรูปเหล่านั้นน้อยลง”

ทั้งนี้ระบบก็ยังไม่ถือว่าสมบูรณ์แบบ ในปี 2015 Twitter ออกมาแถลงว่า ในบรรดารูปที่ระบบ AI ตรวจจับว่าเป็นรูปลามก ประมาณ 7% ของรูปที่ถูกบล็อกไม่ได้มีความผิดอะไร เช่น เป็นรูปเด็กทารกครึ่งตัวไม่ได้ใส่เสื้อ หรือรูปบรรดาคุณแม่กำลังให้นมลูกอยู่ ซึ่งต่อไประบบจะได้เรียนรู้ข้อผิดพลาด และสามารถประมวลผลได้ลึกขึ้น

ทางด้านวิศวกรอีกคนของ Facebook ก็ออกมาเผยว่า ทาง Facebook เองมีการแชร์ข้อมูลเกี่ยวกับการพัฒนา AI เพื่อตรวจจับคอนเทนต์อย่างเปิดเผย โดยบริษัทมองว่ามันไม่ใช่อาวุธลับเพื่อสู้กับคู่แข่ง

ที่มา : digitaltrend