最近幾天,由中國人民大學高瓴人工智能學院,智能社會治理跨學科交叉平臺和基于大數據文科綜合訓練國家級虛擬仿真實驗教學中心聯合主辦的算法公平性與內容生態建設研討會在線上舉行中國人民大學高瓴人工智能學院助理教授陳旭指出,不同性格的人對公平性的訴求是不一樣的,因此,在構建機器學習模型或者推薦系統模型時,可以把人的性格因素考慮進來
陳旭稱,算法公平性很重要的一個點在于,它是不是真正被人們感知到了人們在購物時是不是真的感受到了不公平不同的人對公平性的需求是否一樣不公平性是否給他帶來了困擾討論這些問題的原因在于,有的人對公平性的需求沒有那么大,有的人卻很大
陳旭借助心理學上的一些概念,也初步證實不同性格的人,對公平性的訴求是不一樣的由此,他構想,在構建機器學習模型或者推薦系統模型時,可以把人的性格因素考慮進來對于公平性訴求沒有那么大的人,可以把公平性約束放得寬一些,這樣的話,可以讓推薦系統的性能得到更好提升,或者是對性能約束沒有那么大
我覺得對于公平性來講,尤其互聯網上的用戶這么多,不同用戶的人格,性格肯定不一樣,推薦算法中加入性格因素,會對公平性是一種比較好的度量他說
他還稱,算法的公平性會受到敏感變量的影響在大多數研究中,都圍繞著一種敏感變量探因,比如說性別是男或女,是活躍用戶還是不活躍用戶但當敏感變量變得很多的時候,公平性問題就變得很復雜不同敏感變量之間,可能還存在著矛盾,或存在著一致性在一個敏感變量上達到了公平,可能在另外一個敏感變量上就不公平,如何解決這種矛盾
陳旭舉例稱,某購物網站大多數用戶都是女性,這種情況下,如果我們對活躍用戶指標做公平性時,那它對性別這一敏感變量很有可能是不公平的,在構建敏感變量圖時,不同敏感變量只有找到真正影響最終預測結果的那個公平的點時,才叫比較公平因此,這是未來需要考慮得比較多的地方
當敏感變量從幾個變到幾十個,甚至變到幾百個的時候,問題就會更加凸顯,可能還會出現一些矛盾比如,A和B的關系是一致的,A和C是不一致的,B和C又是一致的,這種情況下很難達到平衡,就需要做帕累托自由這方面的約束他分析稱
鄭重聲明:此文內容為本網站轉載企業宣傳資訊,目的在于傳播更多信息,與本站立場無關。僅供讀者參考,并請自行核實相關內容。
2023年2月15日,湯臣倍健與美團買藥在北京舉辦了2023
2021年收入增長目標應能確保實現,2022年收入增長預計將
具體來看,一是簡化業務流程和材料,便利北京冬奧會相關區域內境
炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛
,據索尼官方消息,新星粉,銀河紫,星光藍,三款全新配色Dua
,新氧數據顏究院發布《2021醫美行業白皮書》,白皮書顯示,