欲戴王冠,必承其重。在AI照進現(xiàn)實的高速突進中,這項技術(shù)本身需要去妖魔化,實踐技術(shù)的企業(yè),也需要一遍又一遍經(jīng)歷考驗。5月24日,被兩則“小作文”帶崩股價的科大訊飛,不得不出面澄清:股價下跌系某生成式AI寫作虛假小作文導致,謠傳風險為不實消息。
【資料圖】
在此之前,科大訊飛一直是AI概念的受益者,尤其是ChatGPT和大模型引領的新一輪AI創(chuàng)業(yè)潮中,科大訊飛今年股價一度翻番。
但成也AI,虧也AI,盡管科大訊飛自家推出的大模型姍姍來遲(5月6日剛剛發(fā)布),尚未真正影響公司基本面,卻以這樣詭異的方式“被兩則大模型生成的小作文”迎頭一擊。
壓力是兩方面的。一方面,科大訊飛是AI從業(yè)者,亟須證明千億AI龍頭股的成色,如何在大模型爭奪戰(zhàn)中拿下實績,這條賽道高度擁擠。另一方面的壓力,來自AI和大模型“去妖魔化”道路上不斷地“被妖魔化”,反復無常且越來越頻繁。
如同此次哭笑不得的小作文事件,一則謠言“無中生有”,一則謠言“舊聞新發(fā)”,單就文章本身而論,充分詮釋了GPT類生成式大模型的實力:有模有樣,以假亂真。
造假的門檻越低,辟謠的難度就越大。以往謠言的生產(chǎn)純靠“人工”,一張嘴還得配一副腦,發(fā)微博也好發(fā)抖音也罷,動輒成百上千字,若想有模有樣以假亂真,確實有一定門檻。
GPT等人工智能的出現(xiàn),無疑降低了造假門檻,科大訊飛被“小作文”就是鮮活的例子。普通用戶向GPT產(chǎn)品發(fā)出簡單需求,就能得到一篇洋洋灑灑的長篇分析,如果愿意還能量產(chǎn)。
鑒于當前GPT類大模型的產(chǎn)品邏輯并不聚焦信息準確性,即便沒有惡意,生成的內(nèi)容已然謬誤百出,倘若別有目的,科大訊飛絕不是被大模型生成謠言中傷的最后一家企業(yè)。近期屢屢登上熱搜的AI詐騙,亦是AI在造假領域的一類方向。
AI技術(shù)方興未艾,AI產(chǎn)業(yè)是蹣跚學步的少年,它的未來是美好的,但成長之路總有背光的一側(cè),并且妖魔化的負面影響有進一步被放大的趨勢,在達到某個平衡點之前,AI妖魔化與受眾認知和產(chǎn)業(yè)規(guī)模呈正相關(guān)。
回溯AI成長史,前幾輪火熱的潮流,比如阿爾法狗引領的AI圍棋、智能音箱為代表的AI消費電子、視覺人工智能“四小龍”帶動的商業(yè)落地……也有這樣那樣的質(zhì)疑,但它們造成的傷害離大眾消費者還比較遠。
如今,GPT、數(shù)字人等AI落地產(chǎn)品的流行,讓越來越多普通人唾手可得,意味著越來越多的黑產(chǎn)分子如影隨形。既然體量千億的科大訊飛能被“小作文”帶崩股價,任何個體與AI妖魔化的抗爭都無濟于事,凈化AI成長環(huán)境,將成為全社會協(xié)力共進的方向。
關(guān)鍵詞:
責任編輯:Rex_25