AI不聽(tīng)話(huà),谷歌要給Ta們安上“緊箍咒”了!
欄目:公司新聞 發布時間:2018-11-16
谷歌認為,比起殺人AI機器人,我(wǒ)(wǒ)們更該擔心的是AI偏見問題。谷歌提出AI技術開(kāi)發的道德準則,成立了專門的機器學習道德部門,對公司的産品和服務進行分(fēn)析測試,提出改進意見,盡可能避免AI偏見的産生(shēng)。在去(qù)年舉行的谷歌會議上,谷歌當時的人工(gōng)智能(AI)負責人JohnGiannandrea表示,我(wǒ)(wǒ)們不需要擔心殺手機器人,相反,我(wǒ)(wǒ)們需要擔心的是AI偏見。“如果要說真正的安全問題,那就是如果我(wǒ)(wǒ)們給這些系統提供有偏見的數據,那麼生(shēng)成的AI模型就會有偏見。”他說。這是谷歌過去(qù)一(yī)直在努力解決的問題。2015年6月,谷歌照片應用的算法曾經錯誤地将黑人分(fēn)類為“大(dà)猩猩”,引發了軒然大(dà)波。因此,從IBM到Airbnb,每家公司都在努力确保自己算法不會出現類似的偏差。最近一(yī)段時間,谷歌為解決AI偏見又(yòu)上了緊箍咒。對于谷歌機器學習道德、信任和安全主管JenGennai來說,防止出現數據和AI偏見實際上就是他的工(gōng)作内容。Gennai負責領導一(yī)個跨公司的團隊,對谷歌的新産品和服務進行分(fēn)析和咨詢,以确保所有新産品都遵守這一(yī)道德标準。“如果我(wǒ)(wǒ)們要打造一(yī)項新技術,我(wǒ)(wǒ)們需要确保它從一(yī)開(kāi)始就走在正确的軌道上。”她說。谷歌制定AI技

谷歌認為,比起殺人AI機器人,我(wǒ)(wǒ)們更該擔心的是AI偏見問題。谷歌提出AI技術開(kāi)發的道德準則,成立了專門的機器學習道德部門,對公司的産品和服務進行分(fēn)析測試,提出改進意見,盡可能避免AI偏見的産生(shēng)。


在去(qù)年舉行的谷歌會議上,谷歌當時的人工(gōng)智能(AI)負責人John Giannandrea表示,我(wǒ)(wǒ)們不需要擔心殺手機器人,相反,我(wǒ)(wǒ)們需要擔心的是AI偏見。


“如果要說真正的安全問題,那就是如果我(wǒ)(wǒ)們給這些系統提供有偏見的數據,那麼生(shēng)成的AI模型就會有偏見。”他說。



這是谷歌過去(qù)一(yī)直在努力解決的問題。2015年6月,谷歌照片應用的算法曾經錯誤地将黑人分(fēn)類為“大(dà)猩猩”,引發了軒然大(dà)波。因此,從IBM到Airbnb,每家公司都在努力确保自己算法不會出現類似的偏差。


最近一(yī)段時間,谷歌為解決AI偏見又(yòu)上了緊箍咒。


對于谷歌機器學習道德、信任和安全主管Jen Gennai來說,防止出現數據和AI偏見實際上就是他的工(gōng)作内容。Gennai負責領導一(yī)個跨公司的團隊,對谷歌的新産品和服務進行分(fēn)析和咨詢,以确保所有新産品都遵守這一(yī)道德标準。


“如果我(wǒ)(wǒ)們要打造一(yī)項新技術,我(wǒ)(wǒ)們需要确保它從一(yī)開(kāi)始就走在正确的軌道上。”她說。


谷歌制定AI技術開(kāi)發七大(dà)準則



今年6月,Google首席執行官Sundar Pichai發布了該公司的人工(gōng)智能原則,指導谷歌在這些方面的工(gōng)作和研究,包括确保Google員(yuán)工(gōng)不會制造或加強不公平的AI偏見。


Pichai表示,AI的開(kāi)發和使用将在未來許多年内對社會産生(shēng)重大(dà)影響。作為AI的領導者,我(wǒ)(wǒ)們感到自己有責任做到這一(yī)點。


這種關于人AI技術的新立場是受到谷歌出現問題的影響而提出的。除了“大(dà)猩猩”事件之外(wài),哈佛大(dà)學研究人員(yuán)Latanya Sweeney發現谷歌搜索中(zhōng)的存在種族歧視。當搜索類似黑人名字時,會比搜索類似白(bái)人名字更有可能出現與“被逮捕”相關的廣告。


“這些現象都是我(wǒ)(wǒ)們的部門成立的原因,不應該讓我(wǒ)(wǒ)們的用戶看到這些,我(wǒ)(wǒ)們需要首先阻止這些偏見的産生(shēng)。”Gennai說。


 谷歌谷歌機器學習道德、信任和安全負責人Jen Gennai


現在每當谷歌推出新産品時,都會接受Gennai及其團隊的嚴格測試。來自技術、法律、隐私和社會科學等領域的專家聚集在一(yī)起,根據谷歌制定的AI準則對每個産品進行分(fēn)析。


這種測試主要是找出産品的優缺點。“我(wǒ)(wǒ)們并不是公司裡可怕的監工(gōng)。”Gennai說。“我(wǒ)(wǒ)們想的是,希望公司能推出最好的産品,所以我(wǒ)(wǒ)們要找出所有可能出錯的漏洞,以便解決問題。


 在谷歌智能助理給真人打電(diàn)話(huà)的功能上,産品團隊事先就AI如何處理不同口音做了大(dà)量工(gōng)作,但Gennai的測試團隊提出了一(yī)些其他問題。


“我(wǒ)(wǒ)們研究了用戶如何與之互動,如何利用技術降低AI的偏見。我(wǒ)(wǒ)們提出了問題,要如何判斷用戶是不是有口吃或語言障礙。産品開(kāi)發團隊做了很多工(gōng)作,但我(wǒ)(wǒ)們試圖縮小(xiǎo)所有差距,提升産品表現。”她說。


改進數據集質量


改善AI偏見的一(yī)種方法是改進數據集。 Gennai舉了一(yī)個婚禮的例子。



過去(qù),如果你在Google圖片上搜索“婚禮”,得到的結果是白(bái)人穿着婚禮禮服的照片,因為算法是在基于西方人的數據源上進行訓練的。然而,這對印度或中(zhōng)國的谷歌用戶就不合适。谷歌要求人們提交世界各地的婚禮照片,以改善數據集。


“現在,我(wǒ)(wǒ)們得到了印度用戶的大(dà)量反饋,他們向我(wǒ)(wǒ)們發送了許多色彩缤紛的婚禮照片,”我(wǒ)(wǒ)們希望了解我(wǒ)(wǒ)們現有資(zī)源,創建偏見相對較小(xiǎo)的新資(zī)源。”


讓用戶也能理解算法


了解谷歌算法的内部工(gōng)作流程,有助于團隊更好地進行修改。比如用谷歌搜索“CEO”時出現的問題,當你在搜索欄中(zhōng)鍵入“CEO”時,你會看到一(yī)些穿着西裝打着領帶的白(bái)人男子的圖片。


Gennai的團隊調查數據時發現,這個現象往往并不是人為偏見,而是技術上的偏見。



“在算法看來,海軍藍(lán)像素就等于CEO,而且因為白(bái)人男性更容易穿藍(lán)色西裝,所以這純粹是模型學習的方式問題。但這表明我(wǒ)(wǒ)們需要仔細檢查數據。


讓谷歌用戶了解公司算法的運作方式也是很重要的。谷歌用戶現在可以查看為你投放(fàng)廣告的原因,并查看由算法做出的決定。用戶還可以查看為何會在谷歌搜索結果中(zhōng)看到某個鍊接,具體(tǐ)取決于用戶之前的搜索記錄。 Gennai表示,這是為了幫助用戶更多地了解谷歌,以便他們可以信任谷歌搜索。


透明度也是谷歌AI原則的一(yī)部分(fēn)。但是“與用戶共享一(yī)個完整的算法根本沒有用,反而可能會引起更多的混淆,并感覺我(wǒ)(wǒ)們是故意混淆。但是,用用戶可讀的語言解釋算法,将有助于人們了解谷歌正在嘗試做的事情,即使我(wǒ)(wǒ)們做錯了。”Gennai說。


解決AI偏見,光靠谷歌不夠


說到最後,偏見的根源其實還是來自人類。“我(wǒ)(wǒ)們每個人都有偏見,我(wǒ)(wǒ)們現有的全部數據源,都是建立在我(wǒ)(wǒ)們每個人和過去(qù)的曆史偏見之上。”


但是,僅僅因為這一(yī)點,并不能說我(wǒ)(wǒ)們無法阻止偏見。相反,谷歌試圖盡可能調查和解釋最大(dà)的偏見來源,并嘗試改變。


從這個角度看,谷歌的AI準則在公司内部非常重要,也是因為這個原因,谷歌為公司外(wài)的人創建了“負責任的AI”開(kāi)發實踐項目,這些人正在使用其開(kāi)源軟件來構建人工(gōng)智能和機器學習算法。


“我(wǒ)(wǒ)們希望能夠以身作則,提供相關工(gōng)具和知(zhī)識,讓更多的人能夠遵循這些準則。”她說。