北京時間5月26日上午消息,微軟開發出一套新工具,用來判斷AI算法是否存在偏見。AI算法可能會歧視某些人群,微軟希望新工具能夠幫助企業及時發現,安全使用AI。
微軟偏見偵測研究主管里奇·卡魯阿納(Rich Caruana)介紹稱,新工具相當于“儀表板”,工程師可以用它訓練AI模型。他還表示,在AI領域,因為經驗不足,有些新東西理解的人很少,比如透明度、可理解性、可解釋性;還有隨時可能出現的偏見,這些都是必須重視的元素。
在最近舉行的會議上,哈佛機器學習講師、羅德島大學CIO加布里爾·法耶羅(Gabriele Fariello)曾說,在倫理偏見方面,AI已經存在嚴重的問題。他認為,在醫療保健、司法及其它領域,有些決定由AI做出,它會直接影響我們的生活。
卡魯阿納還說:“好好訓練員工,這是企業眼下應該做的最重要事情,這樣員工就能知道在哪些環境下偏見會增加,在哪些環境下會顯示出來,員工還能開發工具,讓模型變得更容易理解,讓偏見更容易被發現。”(星海)
特別提醒:本網信息來自于互聯網,目的在于傳遞更多信息,并不代表本網贊同其觀點。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關內容。本站不承擔此類作品侵權行為的直接責任及連帶責任。如若本網有任何內容侵犯您的權益,請及時聯系我們,本站將會在24小時內處理完畢。