久久亚洲国产精品视频,中国AV片,最近中文字幕免费大全,国产亚洲精品久久久999功能介绍,欧美色女人

金融情報局網

面對AI 的猶疑和擔心 為AI指引正確方向

當前位置:金融情報局網>資訊 > 科技 > 正文  2018-11-29 16:29:07 來源:谷歌開發(fā)者

在過去的一年里,我曾與數百位客戶面談,討論 AI 如何改變了他們對事物可能性的認識。我們討論了如何通過算法應用實現智能分診,從而減少醫(yī)護人員的工作量;如何實現準確的語言翻譯,從而將記者與全球各地的觀眾聯(lián)系在一起;如何實現自動響應常見請求,從而減少客戶服務等待時間。我們能夠應用 AI 幫助客戶解決如此之多的業(yè)務問題,這著實令我感到驚訝,但這些客戶也在一定程度上表達了對 AI 的猶疑和擔心。

在這項技術的幫助下,我們實現了很多超乎想象的事情,但這同時也有可能帶來意料之外的后果。我們有許多客戶都在問:我們如何才能從 AI 中獲益同時又避免其帶來的挑戰(zhàn)?

為AI指引正確方向

NCSA Mosaic 網絡瀏覽器,發(fā)布于 1993 年

為便于從討論中得出正確的觀點,我經常會從上面這張圖片說起。這是在 1993 年面世的 Mosaic 網絡瀏覽器,在我看來,2018 年 AI 技術的現況就好比當年的 Mosaic 網絡瀏覽器。與上世紀 90 年代中期的網絡技術類似,現時的 AI 正經歷著從學術領域到主流技術的快速轉變?;ヂ?lián)網革命讓我們受益良多,但同時也給我們帶來了諸多風險,我們有責任考慮擺在我們面前的各種可能性。畢竟,像電子郵件和短信等技術讓我們很輕松就能保持聯(lián)系,要看到這一點并不難,但要想象這類技術在惡意軟件和網絡霸凌等現象蔓延中所起的作用卻不那么容易。

相較網絡技術發(fā)展早期時產生的問題,未來十年我們可能會遇到更加復雜棘手的挑戰(zhàn),但我們的客戶如此熱切地主動迎接挑戰(zhàn),讓我備受鼓舞。事實上,同樣的問題往往會反復出現:

不公平的偏見

不公平的偏見:我們如何能夠確定我們的機器學習模型對每位用戶一視同仁?可解釋性:我們如何能夠讓 AI 更加透明,從而更好地理解它的建議?改變員工:我們如何能夠負責任地利用自動化技術的力量,同時確?,F在的員工為未來做好準備?正確利用:最后,我們如何能夠確定我們正在將 AI 用于正途?

我們很容易認為算法是客觀的,而且絕對可靠,但事實是,機器學習模型的可靠性有賴于訓練模型時使用的數據。此外,由于負責尋找、組織和標記這些數據的都是人類,因此即便是最輕微的不規(guī)范行為,也很容易在結果中造成重大差異。更糟糕的是,算法的執(zhí)行速度遠非人類所能及,再加上是在全球范圍內執(zhí)行,因此不公平的偏見不僅被重復,而且還有所擴大。

雖然不公平的偏見可能是蓄意偏見的產物,但我們的盲點卻發(fā)揮著更普遍的作用。例如,我們往往會被能夠證實自己信念的人和觀點所吸引,而對置疑我們信念的人和觀點,則容易回避。這種現象被稱為證實性偏見,它甚至可以扭曲最有善意的開發(fā)者的看法。

此外,由于我們身邊已經發(fā)現有不公平的偏見,因此即便是如實收集的數據,也可以反映這種偏見。例如,大量的歷史文本經常用于訓練涉及自然語言處理或翻譯的機器學習模型,如不改正,可能會使這種有害的成見持續(xù)下去。Bolukbasi 等人的開創(chuàng)性研究以令人震驚的清晰度量化了這一現象,證明統(tǒng)計語言模型能夠非常輕松地 “學習” 關于性別的過時假設,例如 “醫(yī)生” 是 “男性”,“護士” 是 “女性”。與此相似的嵌入性偏見問題在種族方面也有體現。

我們正在多個領域處理這些問題,其中以感知領域最為重要。為了促進人們更廣泛地理解公平對于機器學習等技術的必要性,我們創(chuàng)建了教育資源,例如 ml-fairness.com,并在 ML 教育速成課程中新近推出公平性模塊。

我們還看到一種鼓舞人心的趨勢,即借助文檔記錄來更好地理解機器學習解決方案中的內容。今年早些時候,研究人員提出了一種記錄數據集的正式方法,這種方法特別適用于數據集包含以人為中心的信息或人口統(tǒng)計敏感信息的情況。以此觀點為基礎,Google 的研究人員提出了 “模型卡片”,這是一種用于描述機器學習模型的目標、假設、性能指標、甚至倫理道德考量的標準化格式。一目了然,模型卡片旨在幫助開發(fā)者(無論是否有 ML 專業(yè)知識)在掌握信息的情況下決定負責任地使用給定組件。

當然,我們一直致力于為開發(fā)者提供值得信賴的工具,在挑戰(zhàn)偏見方面也是一樣。首先從嵌入式文檔開始,例如包容性 ML 指南,我們將該指南集成在 AutoML 中,并擴展到類似 TensorFlow Model Analysis (TFMA) 和 What-If Tool 等工具,該指南為開發(fā)者提供所需的分析數據,使其確信他們的模型會公平對待所有用戶。TFMA 可以輕松將模型在用戶群體的不同環(huán)境、特征和子集下的性能表現可視化,而 What-If 支持開發(fā)者輕松運行反設事實,闡明關鍵特征(例如給定用戶的人口屬性)逆轉時可能會發(fā)生的情況。這兩個工具都可以提供沉浸式互動方法,用于詳細探索機器學習行為,幫助您識別公平性和代表性方面的失誤。

最后,我們計劃通過數據科學平臺 Kaggle 充分發(fā)揮社區(qū)的力量。我們最近推出的包容性圖像挑戰(zhàn)賽主要解決圖像訓練集中地理多樣性偏差的問題,這一問題導致分類器經常難以描述來自代表人數不足地區(qū)的人。參賽者面臨的挑戰(zhàn)是構建能夠在無需整合新數據的前提下更好地在不同地理環(huán)境間進行泛化的模型,從而打造出更加包容、可靠的工具,以便更好地為全球用戶群提供服務。在此項任務中取得的進展將應用于其他領域,我們對此很樂觀,同時也很高興在 2018 年的神經信息處理系統(tǒng)大會上展示這些成果。

對于目前采取的這些做法,我們深感自豪,我相信這些知識和我們正在開發(fā)的工具具有深遠的意義,必將促進 AI 技術的公平性。但沒有一家公司能夠獨自解決如此復雜的問題。這場對抗不公平偏見的斗爭將是一次集體行動,由許多利益相關者的投入共同推動,我們會傾聽多方意見。世界不斷變化,我們也將繼續(xù)學習。

可解釋性

AI 如何能夠真正贏得我們的信任?這屬于一個更基本的問題,但其緊迫性絲毫不亞于應對不公平偏見的挑戰(zhàn)。隨著機器學習在決策領域發(fā)揮的作用越來越大(這曾經是人類的專屬領域),答案將越來越多地依靠一個關鍵因素:可說明性。

許多深度學習算法自誕生起就一直被人們視作 “神秘黑匣” 般的存在,這是因為就連它們的創(chuàng)造者也難以準確表達輸入和輸出之間究竟發(fā)生了什么。如果我們繼續(xù)把 AI 當作 “神秘黑匣” 看待,那我們就不能指望得到人們的信任,因為信任源自了解。對于傳統(tǒng)軟件,我們可以通過逐行檢查源代碼來揭示其中的邏輯,但神經網絡是一個通過暴露在數千乃至數百萬個訓練示例中而形成的密集連接網絡,所以結果只能是折衷一下,取靈活性而損直觀解釋性。

隨著最佳實踐的建立,成套工具的增多,再加上大家都在努力從開發(fā)周期伊始就獲得可解釋的結果,我們這方面的工作正在不斷取得進展。事實上,在今年早些時候發(fā)布構建負責任的 AI 系統(tǒng)的原則之時,我們就已將可解釋性列為四大基礎支柱之一。

目前,我們看到業(yè)界已經在現實中考慮可解釋性這一問題。例如,在圖像分類領域,Google AI 最近的研究演示了一種表現人性化概念的的方法,例如條紋狀皮毛或卷發(fā),然后在給定圖像中量化這些概念的普遍性。由此產生的分類器能夠根據對人類用戶最有意義的特點來清楚表達其推理過程。例如,它可能將圖像歸類為 “斑馬”,部分原因在于 “條紋” 特征較明顯,而 “圓點花紋” 特征相對不夠明顯。實際上,研究人員正在試驗將這種方法應用于糖尿病視網膜病變的診斷,它可以使輸出更加透明,當專家不同意模型的推理時,甚至允許對模型進行調整。

改變員工

無可否認,我們與工作的關系正在發(fā)生變化,我們有許多客戶都想知道應該如何平衡自動化技術的潛力與員工的價值。

不過,我認為自動化技術的未來并非一場零和游戲。PWC 最近的一份報告顯示,67% 的高管認為通過人工智能和人類智能相結合,AI 將助推人類和機器協(xié)同工作,發(fā)揮更強大的作用。

另外,我們必須記往一點,工作很少會是單一的。大多數工作都是由無數不同任務組成,從高度創(chuàng)新到重復性任務,每一項任務都會在特定程度上受到自動化的影響。例如,在放射醫(yī)學中,算法發(fā)揮著輔助作用,通過自動評估簡單常見的癥狀,讓人類專家可以集中精力應對更具挑戰(zhàn)性的任務,同時更快、更持續(xù)地工作。

然而,某些類別的工作面對的變化要比其他工作更加緊迫,并且要做出更多努力才能緩和這種轉變。為此,Google.org 拿出了 5,000 萬美元的資金,用于支持非盈利組織從三大方面為未來的工作做好準備:

提供終身培訓和教育,讓工人能夠滿足工作要求根據技能和經驗,將潛在員工與理想的工作機會聯(lián)系起來為從事低收入工作的工人提供支持當然,這只是第一步,我們期待在未來幾年中為越來越多的類似舉措提供支持。

正確利用

最后,還有一個最重要的問題:“如何能夠確定我正在運用 AI 給人們的生活帶來積極影響?”

這是一個很難回答的問題,由于我們傾向于關注 AI 在極端情況下的行為,因此回答這一問題變得更加困難。例如,采用倫敦動物學會的做法,使用 AutoML 以低成本方式監(jiān)控瀕危物種,這無疑是一個好方法,幾乎沒人會否認這點。我們也親眼目睹 Google 的開源機器學習框架 TensorFlow 如何幫助 Rainforest Connection 對抗非法森林采伐,幫助農民識別患病植株,以及預測發(fā)生森林大火的可能性。此外,我們的 AI 造福社會 (AI for Social Good) 計劃最近宣布撥款 2,500 萬美元,用于資助以解決人道主義和環(huán)境挑戰(zhàn)為目標的 AI 研究。 我們的變革應對數據解決方案 (Data Solutions for Change) 計劃將繼續(xù)幫助非盈利組織和 NGO(非政府組織)利用目標導向分析來應對失業(yè)問題,檢測阿茲海默癥,創(chuàng)建更多可持續(xù)的食品系統(tǒng)以及優(yōu)化社區(qū)規(guī)劃。

但是,這里有一個巨大的 “灰色" 地帶,特別是像 AI 武器這種有爭議的領域,這個 “灰色” 地帶就是我們在 AI 原則中所述決定不去追尋的技術應用領域。在具有爭議的用例可能性方面,我們的客戶認為自己身處各種不同境地,希望我們能夠幫助他們徹底想清楚 AI 對其業(yè)務的意義。

我們正在與客戶和產品團隊合作,共同解決這些領域的問題。關于這個問題,為了能夠掌握資訊并帶來更多外部視角,我們尋求了技術倫理學家 Shannon Vallor 的幫助(她為 Cloud AI 提供咨詢),請她協(xié)助我們理解這個不斷發(fā)展的 “灰色” 地帶,以及我們的工作該如何融入其中。 從內部的 AI 倫理最佳實踐教育計劃到 AI 原則落實方面的咨詢建議,她從專家視角為 Cloud AI 介紹了如何通過倫理設計、分析和決策來引領這項技術的發(fā)展。例如,倫理設計原則可以用于幫助我們構建更加公平的機器學習模型。審慎的倫理分析能夠幫助我們了解視覺技術的哪些潛在用途是不恰當、有害或具侵入性的。倫理決策實踐可以幫助我們更好地推理具有挑戰(zhàn)性的兩難困境和復雜的價值權衡,例如是否在 AI 應用中將透明度或隱私放在優(yōu)先位置,更多的透明度意味著更少的隱私,反之亦然。

共同打造 AI 的未來

對于前方的所有不確定因素,有一件事非常清楚:構建 AI 的未來,所需要的遠不只是技術。這需要我們共同努力,同樣有賴于工具、信息,以及對世界產生積極影響的共同愿望。

正因此,這并非一份宣言,而是一場對話。雖然我們渴望分享多年來在技術最前沿學到的知識,但沒有人比您更了解您客戶的需求,而且這兩種視角都將在構建公平、負責任和值得信賴的 AI 中發(fā)揮至關重要的作用。畢竟,每個行業(yè)都在面臨自己的 AI 革命,因此,就引領 AI 的發(fā)展而言,每個行業(yè)都不可或缺。我們期待與您展開持續(xù)對話,一起聊聊如何讓承諾變?yōu)楝F實。

關鍵詞: AI指引正確方向

相關內容