21世紀(jì)經(jīng)濟(jì)報(bào)道 記者 鄭雪 北京報(bào)道
7月2日,由北京市人民政府聯(lián)合工業(yè)和信息化部、國(guó)家網(wǎng)信辦、商務(wù)部、中國(guó)科協(xié)共同主辦的全球數(shù)字經(jīng)濟(jì)大會(huì)在北京召開,其中包括人工智能高峰論壇。清華大學(xué)計(jì)算機(jī)系長(zhǎng)聘教授、清華大學(xué)人工智能研究院副院長(zhǎng)朱軍對(duì)人工智能目前發(fā)展態(tài)勢(shì)以及安全態(tài)勢(shì)做出相應(yīng)介紹。
在他看來,未來需要關(guān)注多模態(tài)模型的發(fā)展,或許將成為未來更強(qiáng)的技術(shù)基座形態(tài)。在人工智能安全方面,正在探索中的第三代人工智能新的范式,或能將數(shù)據(jù)和知識(shí)有機(jī)融合在一起,發(fā)展更加安全可靠的人工智能框架。
(相關(guān)資料圖)
“過去十年,人工智能最大的變化趨勢(shì)就是從小模型變成大模型。機(jī)器學(xué)習(xí)常用的模型的規(guī)模發(fā)生了巨大的變化,呈現(xiàn)指數(shù)型增長(zhǎng)的趨勢(shì)。最受關(guān)注的典型成果就是ChatGPT大語言模型的橫空出世,解決過去機(jī)器學(xué)習(xí)模型從不好用到好用,能夠理解意圖和上下文等等,做出了超強(qiáng)的能力展示,現(xiàn)在成了人工智能最受關(guān)注、使用最廣泛的產(chǎn)品。”朱軍說道。
在他看來,ChatGPT的發(fā)展,可以追溯到1978年技術(shù)架構(gòu)的突破和GPT系列的發(fā)展,去年年底Chat版本的發(fā)布,從根本上解決了意圖理解和可用性、好用性的問題。今年的發(fā)展速度會(huì)更快。大模型的三個(gè)關(guān)鍵技術(shù)分為別內(nèi)容學(xué)習(xí)、思維鏈和指令學(xué)習(xí),當(dāng)然還有基于人類反饋的強(qiáng)化學(xué)習(xí)。
“從應(yīng)用和理論上都需要我們關(guān)注多模態(tài)模型的發(fā)展,可能這些是未來更強(qiáng)的技術(shù)基座形態(tài),” 朱軍說道。在他看來,以大腦為參照,人是多模態(tài)感知的系統(tǒng),天然希望能夠處理多模態(tài)數(shù)據(jù)。很多復(fù)雜工程問題中,也會(huì)遇到圖像、文本、語音,甚至是觸覺等等各種模態(tài)的數(shù)據(jù)。
目前來看,文本的進(jìn)展是相對(duì)最成熟的,其它模態(tài)也正快速發(fā)展,圖像、語音、視頻、3D,甚至包括分子結(jié)構(gòu)等等,大家都在嘗試訓(xùn)練和擁抱這種大規(guī)模預(yù)訓(xùn)練模型?!?strong>有了多模態(tài)基座模型,應(yīng)用場(chǎng)景是非常豐富的,除了文本以外,包括視頻、圖像、音頻等等生成任務(wù)都有可能受益,甚至啟發(fā)新的應(yīng)用。”
大模型的迅速發(fā)展,如何理解安全問題?
“大模型之前的人工智能時(shí)代,我們已經(jīng)發(fā)現(xiàn)人工智能本身具有所謂的內(nèi)在安全。人工智能算法可能會(huì)被對(duì)象樣本攻擊,正常樣本加入少量對(duì)抗就會(huì)誤導(dǎo)識(shí)別結(jié)果。不管是數(shù)字世界還是物理世界,很多場(chǎng)景都存在這種情況?!敝燔娬f道。
在他看來,AIGC特別是ChatGPT出現(xiàn)以后,安全問題越來越嚴(yán)重。“大模型本身可能會(huì)對(duì)Prompt Injection有攻擊風(fēng)險(xiǎn),加入少量編輯就會(huì)誤導(dǎo)。也存在數(shù)據(jù)泄露的風(fēng)險(xiǎn),ChatGPT會(huì)把很多隱私數(shù)據(jù)上傳?,F(xiàn)在也有用AIGC技術(shù)提升詐騙手段,通過虛假內(nèi)容實(shí)現(xiàn)黑產(chǎn)攻擊,包括代碼生成實(shí)現(xiàn)網(wǎng)絡(luò)攻擊。生成的虛假內(nèi)容本身是不良的,存在誤導(dǎo)性和欺騙性。”
除此之外,算法本身是否存在政治偏見和數(shù)字鴻溝,數(shù)據(jù)采集的過程中會(huì)不會(huì)侵犯知識(shí)產(chǎn)權(quán),這些在大模型時(shí)代都在變得越來越重要和受關(guān)注。
究竟有哪些思路和嘗試可以解決這些問題?
一是關(guān)注從基礎(chǔ)理論研究突破、提高內(nèi)在安全性能的第三代人工智能。從人工智能基礎(chǔ)嘗試,針對(duì)深度學(xué)習(xí)、深度神經(jīng)網(wǎng)絡(luò),學(xué)術(shù)界一直在探索第三代人工智能新范式,希望能夠?qū)?shù)據(jù)和知識(shí)有機(jī)融合在一起,發(fā)展更加安全可靠的人工智能框架。其優(yōu)勢(shì)在于安全、可信、可靠和可拓展。
二是提升安全評(píng)測(cè)能力。主要關(guān)注對(duì)抗攻擊評(píng)測(cè)、角色扮演與誘導(dǎo)欺騙評(píng)測(cè)、混淆指令欺騙評(píng)測(cè)、標(biāo)識(shí)性能評(píng)測(cè)、數(shù)據(jù)安全評(píng)測(cè)、倫理安全評(píng)測(cè)方面。
三是構(gòu)建人工智能安全治理有效工具。如人工智能本身的安全平臺(tái),安全評(píng)測(cè)、防御和整個(gè)態(tài)勢(shì)的評(píng)估,包括對(duì)抗樣本這些場(chǎng)景,可以通過平臺(tái)化的方式對(duì)人工智能的算法和服務(wù)進(jìn)行評(píng)測(cè)。又如特殊專業(yè)的應(yīng)用場(chǎng)景,專門針對(duì)對(duì)抗樣本檢測(cè)、偽造視頻檢測(cè)等進(jìn)行防護(hù)。
關(guān)鍵詞:
質(zhì)檢
推薦