2017-03-16 14:25:22分類:行業(yè)資訊5019
【 3月16日消息】當前,行內每家公司都期待著在人工智能上有大發(fā)展。從谷歌到微軟,再到蘋果,再到三星,人工智能幾乎是智能手機領域的熱門詞匯。
但隨著這些系統(tǒng)變得更強大,功能更多,有必要確保它們不會被利用來針對特定人群。在美國德克薩斯州的西南偏南音樂節(jié)(SXSW)上,微軟研究院的凱特克勞福德(Kate Crawford )向我們展示了她在人工智能領域的觀點,認為這些龐大的數(shù)據(jù)系統(tǒng)在沒有任何責任的情況會出現(xiàn)片面的執(zhí)行。
衛(wèi)報報道了這位研究人員對人工智能的看法,暗示了人工智能系統(tǒng)的廣泛使用會引發(fā)極端主義。然而,并不是這些系統(tǒng)的使用本身,而是說人類的偏見會被以編碼的方式融入其中,從而導致這些功能被錯誤之人所濫用。
該研究的發(fā)起人是一個專注于人工智能社會影響的研究社區(qū)。該研究人員列舉了一個簡單的例子,此前有相關的人工智能研究稱可以根據(jù)某人的面部特征來預測犯罪行為。他們是怎么做到的?該系統(tǒng)通過照片來分析罪犯和非罪犯的面部特征,以預測是否會有犯罪行為。相關研究人員聲稱該系統(tǒng)沒有任何偏見。
Crawford說:“一貫而言,當機器學習系統(tǒng)通過人為數(shù)據(jù)進行訓練時,我們通常認為機器學習系統(tǒng)沒有偏見。”“但我們的偏見是建立在樣本數(shù)據(jù)的基礎之上的。”
在西南偏南音樂節(jié)上,她解釋了這一觀點??藙诟5逻€暗示,社交媒體網站是如何變成開放注冊的。她指出,來自劍橋大學的研究可以根據(jù)用戶在Facebook上的喜好來預測其宗教信仰。研究人員在識別基督徒和穆斯林等用戶信仰中,正確率達到了82%,同時在篩選民主黨人和共和黨人時也能達到同樣效果。
這項研究并不是新研究,而是在2013年進行的。自此以后,人工智能就取得了巨大的進步。