謝菲爾德大學的研究人員正在開發可用于自動檢測和反擊社交媒體上的濫用行為的新工具。
由大學計算機科學系的Kalina Bontcheva教授領導的這項研究正在開發新的人工智能(AI)和自然語言處理(NLP)方法,這些方法可用于負責任地處理在線虐待和仇恨言論。
該項目是與加拿大西蒙菲沙大學的Wendy Hui Kyong Chun協作發起的,研究的是AI方法,該方法目前用于檢測兩個區域內的在線濫用和仇恨言論。游戲行業以及社交媒體上針對政客的信息。
該研究的研究人員打算利用他們的發現來開發有效,公平且公正的新AI算法。該系統將具有上下文意識,并尊重基于種族,種族,性別和性別的社區內的語言差異。
研究人員將研究當前內容審核系統中嵌入的偏見,這些偏見經常使用嚴格的定義或確定辱罵性語言。這些當前的系統經常自相矛盾地基于身份,包括性別,性別,種族,文化,宗教,政治背景或其他因素,造成新形式的歧視或偏見。
研究團隊旨在通過產生更多情境感知的動態檢測系統來解決這些影響。
此外,該項目還希望通過使新工具開源來增強用戶能力,以便將其嵌入新策略中,以民主方式解決在線濫用和仇恨言論。它們也可以用作基于社區的護理和應對措施的一部分。
Kalina Bontcheva教授說:“近年來,網上濫用和仇恨言論的數量急劇增加,這使得政府和社交媒體平臺都在努力應對后果。
“在線濫用和仇恨言論的大量增加引發了公眾的憤慨,人們要求政府和社交媒體公司為解決這個問題付出更多的努力,但是目前尚無有效或技術性的流程可以負責任或民主的方式解決這個問題。
“我們正在開發新穎的AI和NLP方法來解決該問題,同時還為學者和早期職業研究人員制定了一項重要的培訓計劃,以培養這一關鍵研究領域的能力和專業知識。”
謝菲爾德大學與西蒙·弗雷澤大學(Simon Fraser University)共同領導了“負責任的包容性民主社會的人工智能:一種跨學科的在線檢測和打擊辱罵性語言的方法”項目。它是英國研究與創新(UKRI)資助的10個英國-加拿大項目之一,以支持負責任的AI開發,包括確保社會所有成員信任AI并從中受益。