“當(dāng)下中國(guó)最應(yīng)該關(guān)心的問(wèn)題是什么?當(dāng)中國(guó)產(chǎn)生了類似(ChatGPT)的技術(shù),要不要向全球開(kāi)放?我們現(xiàn)在應(yīng)該達(dá)成這樣的共識(shí)——中國(guó)的技術(shù)永遠(yuǎn)不對(duì)任何一個(gè)國(guó)家封鎖。我覺(jué)得至少我代表中國(guó)科研人員可以作出這個(gè)承諾。”
(資料圖片)
3月25日,在中國(guó)發(fā)展高層論壇2023年年會(huì)上,中國(guó)科學(xué)院自動(dòng)化研究所人工智能倫理與治理中心主任曾毅如是說(shuō)。
談及“脫鉤斷鏈”和技術(shù)封鎖對(duì)我國(guó)人工智能發(fā)展可能帶來(lái)的影響,曾毅表示,確實(shí)存在這樣的風(fēng)險(xiǎn),所以類人工智能生成等技術(shù)必須要有中國(guó)自己的替代版本。
“中國(guó)沒(méi)有失去機(jī)會(huì),失去機(jī)會(huì)的是禁止中國(guó)使用技術(shù)的企業(yè)。”曾毅表示,“中國(guó)人工智能生成技術(shù)、類ChatGPT的技術(shù),大家很快就可以看到。我不能講是水平相當(dāng)?shù)奶娲a(chǎn)品,但是它足以達(dá)到基本可用的程度?!?/p>
會(huì)后,曾毅接受了澎湃新聞?dòng)浾叩牟稍L,就AI勞動(dòng)替代、人工智能數(shù)字鴻溝、人工智能倫理與算法黑箱等問(wèn)題進(jìn)行了探討。
澎湃新聞:隨著人工智能技術(shù)發(fā)展,很多人擔(dān)心工作崗位或可能被AI替代。關(guān)于勞動(dòng)力崗位替代的速度和規(guī)模,當(dāng)前各方有不同的預(yù)測(cè),對(duì)此您怎么看?AI會(huì)快速替代人類勞動(dòng)者么?
曾毅:我想從兩個(gè)層面回答您的問(wèn)題。
一方面,在未來(lái)我們可能需要重新定義什么是“工作”。長(zhǎng)期以來(lái),撫養(yǎng)子女、照顧老人,以及很多社會(huì)服務(wù)并不被人們稱為工作。但布魯金斯學(xué)會(huì)的一項(xiàng)研究表明,或許未來(lái)在家當(dāng)全職媽媽照看子女,照顧年邁老人等可以被稱為“工作”,甚至社會(huì)應(yīng)該支付薪酬。
當(dāng)前,很多人認(rèn)為需要通過(guò)工作的意義和價(jià)值來(lái)定義自己,然而我認(rèn)為恰恰應(yīng)該是情感付出、情感交互才是人類真正難以被替代的,當(dāng)“工作”被重新定義,一個(gè)人對(duì)于社會(huì)的價(jià)值,對(duì)于周圍人的價(jià)值也會(huì)被重新定義。
另一方面,我并不同意那些“某年某項(xiàng)工作會(huì)被替代”的預(yù)測(cè)。從我目前的觀察來(lái)看,任何一項(xiàng)工作都有人不可替代的部分。盡管當(dāng)前人工智能也可以從事新聞寫作,但相比于專業(yè)的人類記者,它缺少對(duì)真實(shí)世界的理解和價(jià)值觀,所以讀者必然會(huì)更傾向于人類作者。所以,面對(duì)所謂的AI崗位替代,我們要思考的就是自己對(duì)工作有哪些獨(dú)特的、不可替代的貢獻(xiàn)。
澎湃新聞:今天上午蘋果公司CEO庫(kù)克談道,他認(rèn)為編程或應(yīng)成為今后人們生存發(fā)展的必備能力。如果不掌握編程能力,或?qū)⒓铀倥c社會(huì)脫節(jié)。未來(lái)AI編程會(huì)產(chǎn)生新的數(shù)字鴻溝么?這是否會(huì)加劇社會(huì)的不平等?
曾毅:編程是教人如何像計(jì)算機(jī)一樣思考,可以培養(yǎng)并提升人的思維能力。大概在2006年左右,美國(guó)就提出了計(jì)算思維的概念,并籍此發(fā)展出了很多課程。但我并不認(rèn)同未來(lái)編程要成為人所必須的技能,整個(gè)社會(huì)中人工智能也不應(yīng)該無(wú)處不在。
在為聯(lián)合國(guó)教科文組織編寫人工智能倫理的時(shí)候,我們就加入了一條“適度使用”原則:應(yīng)該用人工智能的地方,留給人工智能,應(yīng)該留給人類社會(huì)的地方就按照人類的方式去發(fā)展。
作家舒可文在《城里:關(guān)于城市夢(mèng)想的敘述》中指出,城市的發(fā)展,一半是野蠻生長(zhǎng),一半是規(guī)劃,這才叫做城市。人工智能與人類也一樣,也需要將一定空間留給人類自己。
澎湃新聞:人工智能與人類的邊界該怎么劃定?又該怎么設(shè)定人工智能不能逾越的紅線?
曾毅:當(dāng)前很多工程技術(shù)人員對(duì)人文社科和倫理規(guī)范還缺乏理解,這可能會(huì)造成很大的風(fēng)險(xiǎn)。比如一個(gè)技術(shù)研究者將某項(xiàng)未經(jīng)倫理論證的先進(jìn)技術(shù)上線,技術(shù)在應(yīng)用中或可能會(huì)造成負(fù)面影響,甚至給社會(huì)造成重大損失,這時(shí)候再發(fā)現(xiàn)補(bǔ)救,很多損失可能已經(jīng)不能挽回。
當(dāng)前我們的人工智能技術(shù)發(fā)展還處于初步階段,能夠?qū)懭虢炭茣拇_定性結(jié)論還不多,還需要更多的研究和探索。
此外,我認(rèn)為一定要針對(duì)理工科領(lǐng)域開(kāi)設(shè)人工智能相關(guān)的哲學(xué)課、倫理課、工程倫理課。包括人工智能學(xué)系、計(jì)算機(jī)科學(xué)系、工程計(jì)算系在內(nèi)的專業(yè)應(yīng)將這些課程設(shè)為必修課。未來(lái),人工智能倫理道德不應(yīng)該是一個(gè)分支的研究領(lǐng)域,而應(yīng)該是所有人工智能從業(yè)者的第一課,倫理規(guī)范也應(yīng)成為所有人工智能服務(wù)的基礎(chǔ)。
澎湃新聞:當(dāng)前主流的人工智能采取遺傳算法、神經(jīng)網(wǎng)絡(luò)等方式發(fā)展演進(jìn),但也存在“算法黑箱”的風(fēng)險(xiǎn),您是否會(huì)擔(dān)心不可解釋的人工智能引發(fā)“黑天鵝”事件?是否有存在超預(yù)期風(fēng)險(xiǎn)的可能?
曾毅:我們不應(yīng)該接受深度學(xué)習(xí)成為所有人工智能基座的這件事,因?yàn)樗豢山忉尅,F(xiàn)在最應(yīng)該做的是什么?應(yīng)該做科學(xué)應(yīng)有突破的科研攻關(guān),哪怕是從零開(kāi)始,做可解釋的人工智能,并向著高智能、低能耗的方向延伸。
不能因?yàn)樯疃葘W(xué)習(xí)好用,可以解決現(xiàn)在的問(wèn)題,當(dāng)下也沒(méi)有更好的替代方案,就放棄了最初應(yīng)該努力的方向。我希望,這些應(yīng)該努力實(shí)現(xiàn)的基礎(chǔ)突破能更多誕生在中國(guó)。
然而現(xiàn)狀是,學(xué)術(shù)界和產(chǎn)業(yè)界對(duì)深度學(xué)習(xí)更感興趣,致力于將已經(jīng)完成的99.9%再往下延伸。
我覺(jué)得,如果這些是產(chǎn)業(yè)追求短期利益不得不做的事情,那么至少學(xué)術(shù)界不應(yīng)該把這個(gè)精力花在這里。
關(guān)鍵詞:
責(zé)任編輯:Rex_26