สองค่ายเกมยักษ์ใหญ่อย่างทาง Ubisoft และ Riot Games ได้ประกาศร่วมมือกันวิจัยและพัฒนาเครื่องมือควบคุมดูแลตัวใหม่ที่ขับเคลื่อนด้วยระบบ AI โดยมีเป้าหมายเป็นการรับมือกับความ Toxic ของผู้เล่นในวงการเกม ซึ่งนับว่ายังคงเป็นปัญหาใหญ่ที่เกิดขึ้นต่อเนื่องมาจนถึงทุกวันนี้ค่ะ

ร่วมมือกันต่อต้านเกรียน!
หากพูดถึงปัญหาผู้เล่นสาย Toxic นั้น ในปัจจุบันก็ยังคงเป็นปัญหาใหญ่ที่หลาย ๆ ค่ายเกมต้องเผชิญกันอย่างต่อเนื่อง ไม่เว้นแม้กระทั่งค่าย Ubisoft เจ้าของเกมแนวมัลติเพลเยอร์อย่าง Tom Clancy's Rainbow Six Siege, Trackmania และ The Division รวมถึงค่าย Riot ผู้ให้บริการเกม League of Legends ซึ่งเคยมีสถิติหลุดออกมาก่อนหน้านี้ว่าผู้เล่นกว่า 75% เคยโดนคุกคามภายในเกมมาก่อน

ด้วยเหตุนี้เอง ทั้งสองค่ายจึงได้ร่วมกันจัดตั้งโครงการ Zero Harm in Comms (หรือแปลเป็นไทยได้ว่าสื่อสารปลอดภัยไร้มลพิษ) โครงการวิจัยที่มีเป้าหมายเป็นการรับมือและต่อต้านปัญหาความ Toxic ภายในเกม โดยเบื้องต้นนั้น หลักการของมันก็คือการสร้างฐานข้อมูลภายในเกมขึ้น ก่อนจะนำฐานข้อมูลที่ว่าไปฝึกฝน AI ที่มีหน้าที่ในการจัดการดูแลระบบสื่อสารต่าง ๆ เพื่อที่ในอนาคต มันจะได้ตรวจจับพฤติกรรมการเล่นหรือการพูดคุยที่เข้าข่าย Toxic ได้นั่นเอง

อย่างไรก็ตาม วิธีการเช่นนี้ก็ทำให้หลาย ๆ คนอดกังวลไม่ได้ว่าข้อมูลส่วนตัวของพวกเขาจะถูกนำไปใช้งานและส่งต่อให้คนอื่นหรือไม่ ทาง Riot จึงได้ออกมาอธิบายให้ฟังว่าข้อมูลที่ใช่ในการระบุตัวตนทั้งหมดนั้นจะถูกลบออกไปก่อนขั้นตอนการแจกจ่าย ตัวอย่างเช่นข้อมูลส่วนบุคคลที่อาจหลงเหลือในบันทึกการพูดคุยต่าง ๆ จะถูกทางทีมงานหรือระบบลบออกไปทั้งหมดค่ะ
ในปัจจุบัน โครงการที่ว่านี้ก็ถูกพัฒนามากว่า 6 เดือนแล้ว งานนี้ต้องรอดูกันต่อไปว่ามันจะเป็นรูปเป็นร่างออกมาตอนไหน และจะทำให้สังคมเกมดีขึ้นได้จริงหรือไม่ค่ะ
ที่มา: GameRant
ติดตามข่าวเกมพีซี/คอนโซลอื่น ๆ ได้ที่ https://www.online-station.net