โดย จารุณี นาคสกุล
ปัจจุบัน การบูลลี่ หรือการกลั่นแกล้งคนอื่นเป็นเรื่องใกล้ตัวเราทุกคน เนื่องจากทุกคนใช้โซเชียลมีเดียซึ่งเป็นช่องทางสะดวกให้คนอันธพาลเล่นงานคนอื่นเพียงเพื่อสร้างความสะใจโดยที่ไม่ต้องกังวลว่าตัวตนหน้าตาของตัวเองจะถูกเปิดเผย แต่หารู้ไม่ว่าความสะใจเพียงชั่วครู่ชั่วยามของคุณได้ทิ้งรอยบาดแผลไว้ในชีวิตของคนคนหนึ่งได้มากมายแค่ไหน บางคนรับไม่ไหวถึงกับตัดสินใจจบชีวิตตัวเองก็มี
ยิ่งเราเข้าถึงเทคโนโลยีได้มากเท่าไร ก็ยิ่งมีโอกาสถูกกลั่นแกล้งมากขึ้นเท่านั้น จนเกิดคำว่า Cyberbullying (การกลั่นแกล้งกันในโลกออนไลน์) ขึ้น (จากสถิติพบว่า เด็กวัยรุ่นอเมริกัน 59% เคยถูกคนในโลกออนไลน์กลั่นแกล้ง) ขณะเดียวกัน เทคโนโลยีก็มีส่วนช่วยหยุดพฤติกรรมน่ารังเกียจนี้เช่นกัน โดยเฉพาะอย่างยิ่งปัญญาประดิษฐ์ หรือเอไอ ที่ถูกนำมาใช้ตรวจจับและรับมือกับการคุกคามคนอื่น
จิลล์ จาค็อบส์ นักวิจัยด้านภาษาจาก ม.เกนท์ ของเบลเยียม เผยว่า แทบจะเป็นไปไม่ได้เลยที่มนุษย์จะมานั่งคัดกรองทุกโพสต์ทุกคอมเม้นท์ว่าเข้าข่ายบูลลี่หรือไม่ เพราะฉะนั้น เอไอคือพระเอกของเราในการจัดการปัญหานี้
ทีมของ จาค็อบส์ ได้สอนให้ระบบอัลกอริทึ่มตรวจจับคำหรือกลุ่มคำที่เกี่ยวข้องกับการบูลลี่ในเว็บไซต์ AskFM ชุมชนออนไลน์ชื่อดังที่ให้ผู้ใช้เข้ามาตั้งหรือตอบคำถาม โดยสามารถตรวจจับและบล็อกถ้อยคำหยาบคายได้ถึง 2 ใน 3 จากโพสต์ภาษาอังกฤษเกือบ 114,000 โพสต์ แต่ก็ยังมีปัญหากับคำเสียดสีเหน็บแนมที่ไม่ได้ใช้คำหยาบ
ทีมของ ฮาจิ ซาฮีม จาก ม.วิทยาลัยแม็คกิลล์ ในแคนาดา พบว่า การหยุดยั้งการบูลลี่ในโลกออนไลน์ต้องมีเครื่องมือคัดกรองที่เฉพาะเจาะจงสำหรับเป้าหมายของคนเอ่ยวาจาประทุษร้าย หรือ Hate Speech เป็นประเภทๆ พวกเขาให้เอไอเรียนรู้ว่าในแต่ละชุมชนออนไลน์ เช่น Reddit จะมีรูปแบบการบูลลี่ผู้หญิง คนผิวดำ หรือคนเจ้าเนื้ออย่างไรบ้าง และสอนคำเหน็บแนมที่ไม่ใช่คำหยาบ เช่น animal ที่แปลว่า สัตว์ แต่อาจถูกนำมาใช้ทิ่มแทงจิตใจคนอ่านได้ เป็นต้น
นอกเหนือจากองค์กรที่เกี่ยวกับการศึกษาแล้ว บรรดาผู้ให้บริการโซเชียลมีเดียเบอร์ต้นๆ อย่างอินสตาแกรม ก็ตื่นตัวกับการปราบพฤติกรรมบูลลี่ ผลวิจัยเมื่อปี 2017 ชิ้นหนึ่งพบว่า วัยรุ่นราว 42% เคยถูกบูลลี่ในอินสตาแกรม ซึ่งสูงที่สุดในหมู่โซเชียลมีเดียอื่นๆ ที่ทำการสำรวจ ปัจจุบันอินสตาแกรมนำเอไอเข้ามาช่วยคัดกรองข้อความ ภาพ วิดีโอ และแคปชั่นที่มีแนวโน้มจะเป็นการบูลลี่ รวมทั้งติดตั้งระบบซ่อนคอมเม้นท์ที่เป็นพิษมาตั้งแต่ปี 2017 และเพิ่งเริ่มใช้แมชชีนเลิร์นนิ่งตรวจจับการโจมตีเรื่องรูปร่างหน้าตาของผู้ใช้เมื่อเร็วๆ นี้
ทีมงานของอินสตาแกรมเผยว่า มาตรการรับมือที่สำคัญคือ ผู้ให้บริการโซเชียลมีเดียต้องตรวจสอบและลบเนื้อหาที่ไม่เหมาะสมอย่างแข็งขัน เนื่องจากเหยื่อที่ถูกรังแกบางรายได้ไม่รายงานปัญหาให้ผู้ให้บริการทราบ และแม้ว่าอินสตาแกรมจะมีมาตรการจัดการกับผู้ใช้ที่โพสต์เนื้อหาไม่เหมาะสมซ้ำๆ แต่พวกอันธพาลออนไลน์ก็ยังหาทางสร้างเพจขึ้นมาเล่นงานหรือส่งไดเรคต์เมสเซจไปให้เป้าหมายได้อยู่ดี
นอกจากจะช่วยป้องกันปัญหาที่ต้นเหตุแล้ว เมื่อเกิดการบูลลี่ขึ้นแล้วเทคโนโลยียังมีส่วนสำคัญในการรับมือผลที่ตามมากับผู้ถูกกลั่นแกล้งด้วย อาทิ อัลกอริทึ่มที่เกิดจากการพัฒนาร่วมกันของ ม.แวนเดอร์บิลต์ และมหาวิทยาลัยแห่งรัฐฟลอริดา ที่ทำนายความเป็นไปได้ที่ผู้ถูกกระทำจะจบชีวิตตัวเองหลังลงมือทำร้ายตัวเองซึ่งมีความแม่นยำถึง 92%
อย่างไรก็ดี หนึ่งในผู้พัฒนาอัลกอริทึ่มนี้เผยว่า อัลกอริทึ่มทำได้เพียงวิเคราะห์ว่าใครมีแน้มโน้มการฆ่าตัวตายเท่านั้น แต่ไม่สามารถบอกได้ว่าคนคนนั้นจะลงมือเมื่อใด
สุดท้ายความรับผิดชอบทั้งหมดก็ยังขึ้นอยู่กับมนุษย์ ว่าเราจะเห็นอกเห็นใจเพื่อนมนุษย์ด้วยกันมากแค่ไหน
ภาพ : wikipedia