在9月7日舉行的第二屆外灘大會上,不僅云集了來自全球的行業(yè)大咖們,同時也是這些大咖們思維和觀點(diǎn)的一次集中的輸出,而針對如今火爆的大模型,大咖們又如何看待呢?
中國科學(xué)院院士、復(fù)旦大學(xué)副校長張人禾:
【資料圖】
“AI時代”下要進(jìn)行“有組織科研”
科學(xué)智能已經(jīng)成為人工智能的重點(diǎn)發(fā)展方向,推動跨學(xué)科的交叉研究,激發(fā)創(chuàng)新突破。加速科技創(chuàng)新與產(chǎn)業(yè)變革的深度融合,推動產(chǎn)業(yè)轉(zhuǎn)型升級??茖W(xué)智能是推動科學(xué)研究范式變革、實現(xiàn)科技原始創(chuàng)新策源的利器,擁有引爆產(chǎn)業(yè)創(chuàng)新核爆點(diǎn)的巨大潛能。國內(nèi)科學(xué)智能也迅速發(fā)展,相繼涌現(xiàn)出大量的科學(xué)領(lǐng)域大模型,但仍處在起步階段。面對 “AI時代”的來臨,“單打獨(dú)斗”已不適應(yīng)大科學(xué)時代的科技創(chuàng)新,要進(jìn)行“有組織科研”,最大的優(yōu)勢在于布局建設(shè)大平臺。
中國科學(xué)院院士何積豐:
應(yīng)對大模型的安全問題,需設(shè)好“緊箍咒”
大模型的安全問題主要是在未經(jīng)同意的情況下,收集、使用和泄露個人信息。隱私問題既可能發(fā)生在訓(xùn)練過程,也可能發(fā)生在使用過程中,而大模型的生成能力則讓“隱私泄露”的方式變得多樣化,造成隱私保護(hù)更加困難。為了應(yīng)對這些問題,我們需要大模型“對齊技術(shù)”?!皩R(alignment)”是指系統(tǒng)的目標(biāo)和人類價值觀一致,使其符合設(shè)計者的利益和預(yù)期,不會產(chǎn)生意外的有害后果?!叭绻讶斯ぶ悄芸醋魑饔斡浝锏膶O悟空,“對齊”就是唐僧的緊箍咒。有了緊箍咒,就可以保證技術(shù)不會任意使用能力胡作非為。
北京智源人工智能研究院顧問、美國國家工程院外籍院士張宏江:
大模型就好比是人工智能時代的iPhone時刻
“iPhone時刻”是2007年,只有當(dāng)iPhone發(fā)布了以后,我們才迎來了移動互聯(lián)網(wǎng)的黃金15年。這15年我們看到它帶來了產(chǎn)業(yè)的變革、產(chǎn)業(yè)的革命以及一系列的應(yīng)用和新的平臺。我們相信這次大模型也一樣帶來AI時代的產(chǎn)業(yè)變革。AI過去的發(fā)展經(jīng)歷了三個周期,在大模型發(fā)布之前實際上是第三個周期的低谷,大模型在過去九個月,掀起了新的浪潮。大模型帶來的影響一定會至少十年,像互聯(lián)網(wǎng)平臺一樣,而大模型本身會成為平臺,不再是簡單的模型,這個革命不是簡單的一種技能或者簡單生產(chǎn)效率提高的工具,而是真正平臺性的革命。
美國科學(xué)院、美國工程院院士邁克爾·喬丹(Michael I.Jordan)教授:
AI不會替代人
ChatGPT對它寫的內(nèi)容確定嗎?ChatGPT完全無法回答上述問題,但人類則非常擅長處理類似的問題,擅長溝通以及應(yīng)對不確定的信息。AI的本質(zhì)是集體,而不是個人,AI也不會替代人。ChatGPT沒有辦法對不確定性進(jìn)行量化,不會有一種所謂的超級電腦會替代人,應(yīng)該把技術(shù)看作是一個工具來賦能人類,我們需要建立一個協(xié)作式、去中心化的系統(tǒng)來實現(xiàn)集體智能,并設(shè)計一個機(jī)制使之公平、穩(wěn)定、可擴(kuò)展。我們在日常生活中經(jīng)常遇到不確定性,讓去中心化的系統(tǒng)能夠幫助我們更好、有效地應(yīng)對日常和世界當(dāng)中的不確定性,這才是我們亟待解決的問題。
南方+記者 葉丹
【作者】 葉丹
【來源】 南方報業(yè)傳媒集團(tuán)南方+客戶端
關(guān)鍵詞:
質(zhì)檢
推薦