記者鄭雪北京報(bào)道
生成式人工智能的快速發(fā)展似乎引起行業(yè)和監(jiān)管格局的變化,各國(guó)政府都在重新審視最初的人工智能戰(zhàn)略。如何挖掘AI的商業(yè)潛力?如何解決人工智能帶來(lái)的信任危機(jī)?誰(shuí)來(lái)監(jiān)管人工智能?
6月28日上午,主題為“與時(shí)俱進(jìn):擁抱人工智能革命,提高人工智能水平”的圓桌討論在第14屆新領(lǐng)軍者年會(huì)(又稱“夏季達(dá)沃斯”)上舉行,圍繞人工智能的信任與監(jiān)管問(wèn)題,與會(huì)專家展開討論。信任:理清因果關(guān)系建立透明度文化
(資料圖片)
生成式人工智能飛速發(fā)展的同時(shí),對(duì)于這項(xiàng)新技術(shù)的討論和擔(dān)憂從未停止。如何回應(yīng)生成式人工智能快速發(fā)展中帶來(lái)的歧視、偏見(jiàn)等問(wèn)題?生成式人工智能是否真的理解人類的真實(shí)意圖?人工智能的快速發(fā)展帶來(lái)的職業(yè)替代,又該如何解決?這一系列問(wèn)題的背后,首先需要解決的是信任問(wèn)題。
來(lái)自柏林赫蒂學(xué)院倫理與技術(shù)教授Joanna Bryson認(rèn)為,如何讓人們信任AI是一個(gè)非常重要的問(wèn)題。在她看來(lái),讓人們感到安全,才會(huì)有信任產(chǎn)生。當(dāng)前在信息透明度方面做的還不夠。信息時(shí)代,人們可以通過(guò)各種方式獲得信息,政府機(jī)構(gòu)不僅要關(guān)注信息如何幫助經(jīng)濟(jì)發(fā)展,還要以人為中心。AI可以看作一個(gè)展現(xiàn)透明度的機(jī)會(huì),可以趁此建立透明度文化。
新技術(shù)走在正確的方向上才能被人信任?!拔覀儸F(xiàn)在必須要讓人們透明的看到我們?cè)谧鍪裁?,不是說(shuō)要讓一切開源,我們還是可以有一定程度的保密,但是我們必須要知道里面有些什么。歐盟的人工智能法案草案提及外部審計(jì),不用害怕,類似于銀行業(yè)的審計(jì)環(huán)節(jié)。我們要跟其他行業(yè)一樣,學(xué)會(huì)最佳實(shí)踐。比如使用AI的系統(tǒng),如何測(cè)試,如何去做質(zhì)量保障?!?/p>
causaLens是倫敦一家專注于因果推理的人工智能公司,該公司CEO Darko Matovski介紹了一種可以獲得信任的、因果式的AI。不同于chatGPT通過(guò)相關(guān)性進(jìn)行推理得到最終結(jié)果,因果AI是在考慮科學(xué)事實(shí)的前提下來(lái)模擬信息傳遞,挖掘事物背后的因果邏輯?!皻W盟的人工智能法草案中提及要理清大模型的因果關(guān)系以確保在真實(shí)世界中的使用。因果AI可以幫助理解為什么AI會(huì)做出這樣的決定以及確保給予可以信任的結(jié)果?!?/p>
針對(duì)AI信任問(wèn)題,有人提出:互聯(lián)網(wǎng)早期,人們對(duì)互聯(lián)網(wǎng)也并不信任,而到現(xiàn)在會(huì)利用互聯(lián)網(wǎng)做很多事情。AI所面臨的信任問(wèn)題是不是和此類似,是否會(huì)隨著時(shí)間的推移而變化?
東軟集團(tuán)(600718)CEO劉積仁認(rèn)為,關(guān)于信任問(wèn)題,歸根到底還是一個(gè)時(shí)間問(wèn)題。AI可以幫助社會(huì)進(jìn)步和工作效率的提升。未來(lái),數(shù)據(jù)的問(wèn)題、隱私的問(wèn)題都會(huì)得到解決?!翱梢钥吹?,所有的國(guó)家包括發(fā)展中國(guó)家也都開始搭建自己的數(shù)據(jù)隱私治理框架,技術(shù)有發(fā)展,監(jiān)管早晚也會(huì)跟上。但我們還需要給技術(shù)的開發(fā)者一定的空間,讓他們能夠先走一步,探索一些未知的東西。”監(jiān)管:關(guān)注措施落實(shí)加強(qiáng)各方合作
不同于其他技術(shù),生成式人工智能帶來(lái)的或許是整個(gè)生態(tài)的重新建構(gòu)。
劉積仁認(rèn)為,如果要考慮AI給社會(huì)發(fā)展創(chuàng)造價(jià)值,意味著需要轉(zhuǎn)變技術(shù),給其他人賦能賦權(quán),這不僅是科技問(wèn)題,還涉及整個(gè)體系的設(shè)計(jì)。“以醫(yī)療方面的人工智能實(shí)踐經(jīng)驗(yàn)為例,技術(shù)發(fā)展已經(jīng)相當(dāng)迅速,但生產(chǎn)體系的建設(shè)嚴(yán)重落后于科技發(fā)展的速度。我們搭建的體系還沒(méi)準(zhǔn)備好去用好AI,而各產(chǎn)業(yè)想要以一種比較垂直的方式來(lái)用AI的話,這就離不開政府與企業(yè)的通力合作?!?/p>
生成式人工智能的發(fā)展也為監(jiān)管帶來(lái)挑戰(zhàn)。誰(shuí)來(lái)監(jiān)管、如何監(jiān)管、如何平衡技術(shù)創(chuàng)新和安全?這些都需要回應(yīng)。
盧旺達(dá)信息通訊技術(shù)和創(chuàng)新部長(zhǎng)波拉.因加比雷(Paula Ingabire)認(rèn)為,政府的角色其實(shí)是要建立一個(gè)監(jiān)管框架,需要有一個(gè)友好的、鼓勵(lì)創(chuàng)新的監(jiān)管環(huán)境。“當(dāng)談到監(jiān)管落實(shí)的時(shí)候,很多人認(rèn)為政府要牽頭建立新技術(shù)、新行業(yè)的生態(tài)系統(tǒng)。但政府無(wú)法單打獨(dú)斗,需要和企業(yè)合作,需要確定行業(yè)中誰(shuí)來(lái)扮演重要角色。當(dāng)然剛開始是政府牽頭,但是后來(lái)需要私營(yíng)力量一起加入。”
Joanna認(rèn)為,技術(shù)并不是難題,比較難的是監(jiān)管。無(wú)論是來(lái)自政府層面還是社會(huì)層面的監(jiān)管還是不夠。一直以來(lái),科技公司,比如社交平臺(tái)、郵箱等,他們的運(yùn)營(yíng)并不透明?,F(xiàn)在很重要的是需要有更多的監(jiān)管,確保新的技術(shù)有很好的監(jiān)管框架,確保AI公司以合規(guī)的方式來(lái)使用新技術(shù)。而這些離不開各方通力合作。
Darko介紹,在人工智能監(jiān)管方面,歐盟很早就開始關(guān)注AI議題并做出提案,歐盟的分級(jí)分類是一個(gè)正確的方向。一個(gè)關(guān)鍵的問(wèn)題在于措施如何落實(shí)。一個(gè)很好的監(jiān)管技術(shù)如果用不正確的方式落實(shí),可能會(huì)對(duì)新技術(shù)帶來(lái)影響?!斑@就是為什么我們應(yīng)該把重點(diǎn)放在規(guī)制上面,這些規(guī)則的落實(shí)會(huì)決定AI的未來(lái)。必須要對(duì)強(qiáng)有力的技術(shù)進(jìn)行監(jiān)管,必須要用正確的方式進(jìn)行監(jiān)管,要以實(shí)際的方式進(jìn)行監(jiān)管,否則就會(huì)磨滅創(chuàng)新?!?/p>
在論壇的最后,加利福尼亞大學(xué)伯克利分校哈斯商學(xué)院教授Olaf Groth作為圓桌論壇的主持人總結(jié)道,“我們今天討論政府的角色非常重要,政府可以確保AI帶來(lái)經(jīng)濟(jì)發(fā)展的同時(shí)讓人們保持尊嚴(yán)。但同時(shí)我們必須意識(shí)到政府不能夠獨(dú)自進(jìn)行眼前這項(xiàng)嚴(yán)峻的挑戰(zhàn),必須要與很多不同的各利用方合作,另外也需要有創(chuàng)新實(shí)驗(yàn)的空間?!痹谒磥?lái),基礎(chǔ)設(shè)施、培訓(xùn)、教育還有數(shù)據(jù)庫(kù),這些都是人工智能發(fā)展中很重要的要素,但是如果沒(méi)有整體設(shè)計(jì),這些要素?zé)o法加成?,F(xiàn)在也必須要整個(gè)社會(huì)一起來(lái)推進(jìn)眼前的工作。
關(guān)鍵詞:
質(zhì)檢
推薦