「人們需要認識到神經科學的局限性,而且我認為將神經網絡與其他算法進行優化結合也是非常必要的」—— Michael Jordan

隨著深度學習和卷積神經網絡概念的加入,人工智能下半場帷幕拉開,機器開啟從被動學習到自我學習模式,人工智能越發像個黑盒,你只能看見你輸入的和他輸出的信息,中間的過程變成了無法解釋的行為。
神經網絡的不可解釋性成為現代神經科學研究領域一大難題,神秘而復雜,人們目前還沒有完全揭開其中的奧秘。它能夠通過模仿人腦的機制來解釋數據,進行無監督學習,因此你無法通過直接研究神經網絡來了解它的工作模式,就連負責開發這些應用的工程師也無法解釋它們的行為。
盡管存在不確定性,在市場的推動下,每一個行業都懷著對人工智能的美好憧憬,積極用上人工智能至少在提升效率上不曾有過的問題。
目前將人工智能技術劃入重點研究對象的行業不在少數,在醫療、社交、自動駕駛、機器人等應用領域十分廣泛,尤以金融、醫療及文娛社交的發展最快。能夠使用 AI 技術有針對性的為用戶篩選優質信息成為每個社交媒體引以為傲的競爭資本。Facebook的人工智能技術會根據用戶背景信息判斷是否應該向用戶展示購物鏈接,Instagram利用智能算法幫助用戶篩選適合他的30%的信息內容,今日頭條會通過算法得出的結論給你推薦你“喜歡”和想要看到的新聞。
總有意料之外的事,在Instagram原本的設想中,引入算法之后,雖然會讓用戶錯過70%的信息,但卻可以幫助看到信息流中最好的30%。不過這樣的設計用戶并不買單,完全依賴于機器算法推薦不僅會讓用戶的視野變窄,更會很容易降低獲取有效信息的效率。
人工智能真的能夠懂你?為你篩選的新聞真的是你的需要?所有大數據將會指向同一個地方,算法將你框在一個框里,讓信息局限在指定區域。
隨著人類對人工智能的依賴也更加明顯,下面這個問題將越來越受重視。“無論是投資決策、醫療決策還是軍事決策,你肯定都不希望把權力交給一個’黑盒子’。”麻省理工學院機器學習應用教授多米·加考拉(Tommi Jaakkola)說。但是,我們還是悲劇的被這個“黑盒子”支配著。
Uber 讓人工智能設計了一套新的計價方式,利用人工智能來預估乘客愿意為某次行程支付的最高價格,從而讓 Uber 的收益最大化。通過乘客的起始地址和目前時段需求量判斷乘客的購買力,從而作出相應的溢價操作,此舉頗有“乘火打劫”之勢。
但是在整個事件中人工智能給出計費的核心依據竟然沒有一個人能解釋清楚。
人工智能算法就像一個“黑盒子”,數據進去、結果出來,設計者只會根據結果調整參數,并基于這些數字對個人做出判斷,在相應時間作出簡單人工干預。“如果機器并不比我們更加擅長解釋自己的行為,那就別相信它。”
讓目前的人工智能以一個輔助的位置出現卻是一個不錯的選擇,例如Siri和小冰一樣活潑有愛的語音識別系統,支付寶面部識別安防系統,Video++精準廣告推薦投放系統, 今日頭條和騰訊財經的Dreamwriter自動編寫稿件的機器人等,都在各自的崗位上輔助推進人類更加效率的工作,這是在尚未搞懂人工智能之前最和諧的相處方式。
機器想要支配人類還為時尚早,但是人類利用機器智能支配同類獲得利益的行為卻在慢慢滋生,只有將算法“黑盒”打開,才能讓神經網絡在更合理的環境下為我們服務。
特別提醒:本網內容轉載自其他媒體,目的在于傳遞更多信息,并不代表本網贊同其觀點。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關內容。本站不承擔此類作品侵權行為的直接責任及連帶責任。如若本網有任何內容侵犯您的權益,請及時聯系我們,本站將會在24小時內處理完畢。