首頁 >國際 >

新華社聚焦ChatGPT:變革與風(fēng)險

美國人工智能公司OpenAI的大語言模型ChatGPT在推出約兩個月后,1月已達到1億月活躍用戶,成為歷史上增長最快的消費者應(yīng)用程序。相關(guān)專家預(yù)計,ChatGPT不僅是新一代聊天機器人的突破,也將為信息產(chǎn)業(yè)帶來巨大變革,但由此帶來的學(xué)術(shù)造假、技術(shù)濫用、輿論安全等風(fēng)險亦不容忽視。

新一代操作系統(tǒng)平臺的雛形

多語言撰寫充滿想象力的詩歌,編寫可運行的程序,快速生成論文摘要,自動制作數(shù)據(jù)表格,糾正文章中的語法和表達錯誤,把一周大事寫成新聞綜述……ChatGPT不僅能理解很多人類問題和指令,流暢展開多輪對話,也在越來越多領(lǐng)域顯示出解決多種通用問題的能力。


(相關(guān)資料圖)

ChatGPT還輕松通過一些對人類難度較高的專業(yè)級測試:它新近通過了谷歌編碼L3級(入門級)工程師測試;分別以B和C+的成績通過了美國賓夕法尼亞大學(xué)沃頓商學(xué)院MBA的期末考試和明尼蘇達大學(xué)四門課程的研究生考試;通過了美國執(zhí)業(yè)醫(yī)師資格考試……業(yè)界形容它的誕生是人工智能時代的“iPhone時刻”,意味著人工智能迎來革命性轉(zhuǎn)折點。

“ChatGPT的成功不應(yīng)僅僅被看作新一代聊天機器人的突破,而應(yīng)該重視其對人工智能乃至整個信息產(chǎn)業(yè)帶來的革命。”北京智源人工智能研究院院長黃鐵軍接受記者專訪時說,人工智能領(lǐng)域的過去十年是深度學(xué)習(xí)的十年,但產(chǎn)業(yè)總體上并沒有出現(xiàn)移動互聯(lián)網(wǎng)和云計算級別的爆發(fā),“ChatGPT的出現(xiàn),具有劃時代意義,大模型+ChatGPT已形成新一代操作系統(tǒng)平臺的雛形”。

黃鐵軍說,ChatGPT在技術(shù)路徑上采用了“大數(shù)據(jù)+大算力+強算法=大模型”路線,又在“基礎(chǔ)大模型+指令微調(diào)”方向探索出新范式,其中基礎(chǔ)大模型類似大腦,指令微調(diào)是交互訓(xùn)練,兩者結(jié)合實現(xiàn)逼近人類的語言智能。ChatGPT應(yīng)用了“基于人類反饋的強化學(xué)習(xí)”訓(xùn)練方式,用人類偏好作為獎勵信號訓(xùn)練模型,促使模型越來越符合人類的認(rèn)知理解模式。

“這樣的AI可幫助人類進行真實創(chuàng)造,尤其是幫助人類提高創(chuàng)造效率,比如提高獲取信息的效率或提出新穎想法,再由人解決其真實性問題。創(chuàng)造效率的提高將產(chǎn)生巨大效益和多方面影響,可以改變世界信息化格局?!敝袊茖W(xué)技術(shù)大學(xué)機器人實驗室主任陳小平對記者說。

引發(fā)新一輪人工智能科技競賽

ChatGPT的問世正在人工智能領(lǐng)域引發(fā)新一輪科技競賽。北京時間2月8日凌晨,微軟推出由ChatGPT支持的最新版本必應(yīng)搜索引擎和Edge瀏覽器,宣布要“重塑搜索”。微軟旗下Office、Azure云服務(wù)等所有產(chǎn)品都將全線整合ChatGPT。

北京時間2月7日凌晨,谷歌也發(fā)布了基于谷歌LaMDA大模型的下一代對話AI系統(tǒng)Bard。同一天,百度官宣正在研發(fā)的大模型類項目“文心一言”,計劃在3月完成內(nèi)測,隨后對公眾開放。阿里巴巴、京東等中國企業(yè)也表示正在或計劃研發(fā)類似產(chǎn)品。

人工智能大模型領(lǐng)域的全球競爭已趨白熱化。黃鐵軍認(rèn)為,ChatGPT未來有望演變成新一代操作系統(tǒng)平臺和生態(tài)。這種變革似移動互聯(lián)網(wǎng)從個人電腦到手機的轉(zhuǎn)化,大部分計算負(fù)荷將由大模型為核心的新一代信息基礎(chǔ)設(shè)施接管。這一新范式將影響從應(yīng)用到基礎(chǔ)設(shè)施各層面,引發(fā)整個產(chǎn)業(yè)格局的巨變,大模型及其軟硬件支撐系統(tǒng)的生態(tài)之爭將成為未來十年信息產(chǎn)業(yè)焦點。

值得注意的是,ChatGPT有時會“一本正經(jīng)地胡說八道”,存在事實性錯誤、知識盲區(qū)和常識偏差等諸多問題,還面臨訓(xùn)練數(shù)據(jù)來源合規(guī)性、數(shù)據(jù)使用的偏見性、生成虛假信息、版權(quán)爭議等人工智能通用風(fēng)險。多家全球知名學(xué)術(shù)期刊為此更新編輯準(zhǔn)則,包括任何大型語言模型工具都不會被接受為研究論文署名作者等。

“學(xué)術(shù)論文的署名作者須滿足至少兩個條件,其一是在論文工作中做出‘實質(zhì)性貢獻’,其二是能承擔(dān)相關(guān)的責(zé)任。目前這兩個條件ChatGPT(以及其他AI系統(tǒng))都不滿足?!标愋∑秸f。

ChatGPT也有應(yīng)用在輿論信息戰(zhàn)方面的潛力。加拿大麥吉爾大學(xué)研究團隊曾使用ChatGPT前代模型GPT-2閱讀加拿大廣播公司播發(fā)的約5000篇有關(guān)新冠疫情的文章,然后要求其生成關(guān)于這場危機的“反事實新聞”。連OpenAI也警告使用ChatGPT的用戶,它“可能偶爾會生成不正確的信息”,“產(chǎn)生有害指令或有偏見的內(nèi)容”。

“針對這些問題,需要我們在發(fā)展技術(shù)的同時,對于ChatGPT應(yīng)用邊界加以管控,建立起對人工智能生成內(nèi)容的管理法規(guī),對利用人工智能生成和傳播不實不良內(nèi)容進行規(guī)避。同時加強治理工具的開發(fā),通過技術(shù)手段識別人工智能生成內(nèi)容。這對于內(nèi)容檢測和作品確權(quán),都是重要前提?!北本┤鹑R智慧科技有限公司副總裁唐家渝說。

關(guān)鍵詞: 人工智能

責(zé)任編輯:Rex_13