Riot采用人工智能技術 監控玩傢惡意言行

Riot Games 的《英雄聯盟》是一款備受歡迎的網絡遊戲,在全球擁有數量龐大的玩傢群體。對於 Riot Games 來說,對抗遊戲中的惡意言論是一個巨大的挑戰。多年以來,Riot Games 試驗瞭各種各樣的技術,包括人工智能技術,對玩傢的言行進行監控和引導,取得瞭相當不錯的效果。

roit

在 Technologyreview 網站的采訪中,公司社交系統的首席設計師 Jeffrey Lin 說,他們的系統已經辨識出數百萬的惡意言論,而且,被指認使用辱罵言辭的玩傢中,92% 的人不再犯同樣的錯誤。他認為,Riot 的系統不僅能用於在線遊戲,而且也能用於其它類型的在線社區。

數年前,公司就推出瞭名為 Tribunal 的管理系統。玩傢的惡意言論被確認後,編入一個“檔案”中。玩傢們查看“檔案”,投票表決那些行為是可以接受的。總的來說,這個系統是非常精確的。Jeffrey Lin說,玩傢社區 98% 的決策與 Riot 的內部決策是一致的。

這是一件非常耗費人力的事情。很快,Jeffrey Lin 和團隊發現瞭惡意言論的模式。為瞭優化流程,他們決定使用人工智能技術。“在區分消極言論和積極言論方面,這是一種非常成功的做法。《英雄聯盟》支持的官方語言有 15 種。” 他說。同時,新系統的效率更高瞭。以前,在確認瞭惡意言論後,玩傢會在一周內得到反饋,現在,這個時間縮減為 5 分鐘。

公司的新系統還大大改善瞭玩傢的“改正率”。在遊戲中,如果一個玩傢曾經受到某種懲罰,然後,在一段特定時間裡不再受到同樣懲罰,他就被認為是“改正”瞭。“在懲罰的時候,當我們加入更好的反饋,給出交談記錄等證據,改正率從 50% 上升到 65%,” Jeffrey Lin 說,“當機器學習系統提供瞭更快的反饋,並配以證據,改正率上升到瞭前所未有的 92%。”

Jeffrey Lin 認為,他們的經驗能夠用於更廣闊的領域。對此,哈佛大學波克曼中心的研究員 Justin Reich 表示瞭贊同。他說,從 Riot Games 的經驗中,我們可以得出一個重要結論:辱罵行為不一定來自惡人,而是來自心情糟糕的普通人。因此,在對抗惡意言論的時候,我們不能隻針對那些惡意的 troll,而且需要考慮,在互聯網的匿名狀態下,人類會暴露出自己最糟糕的一面。不過,惡意言論並非難以根治的痼疾。通過技術、實驗和社區參與,我們能夠解決這個問題。



“我們在《英雄聯盟》上面對的挑戰,任何的遊戲、平臺、社區和論壇上都可以看到,因此,我們認為,在線社區已經到瞭一個急需轉變的時刻,” Lin 說,“因此,我們樂意把數據和經驗分享給更多的業界人士。我們希望,其它的公司能夠看看這些結論,並且意識到,網上惡意言論並非不可解決的問題。”

from:愛范兒

Comments are closed.