大模型發(fā)展亟需高質(zhì)量“教材”相伴
科技日報記者 羅云鵬
1月5日,美國人工智能公司OpenAI表示,正在與數(shù)十家出版商洽談達成文章授權(quán)協(xié)議,以獲取內(nèi)容來訓練其人工智能模型。2023年12月27日,《紐約時報》起訴OpenAI和微軟公司,指控這兩家公司未經(jīng)許可使用其數(shù)百萬篇文章訓練人工智能模型。而早在2023年3月,就有消息顯示谷歌Bard模型的部分訓練數(shù)據(jù)來源于ChatGPT。
這些事件劍指同一個問題——大模型高質(zhì)量語料短缺?!皩τ趶念^開始訓練的模型,語料短缺會在非常大的程度上限制大模型發(fā)展。”近日,哈爾濱工業(yè)大學(深圳)計算機科學與技術(shù)學院教授邵睿在接受科技日報記者采訪時說:“增加語料對于提升大模型能力的邊際效益正在減弱,高質(zhì)量語料的缺乏正日益成為限制大模型發(fā)展的瓶頸?!?/p>
大模型訓練語料短缺問題嚴重
科技部新一代人工智能發(fā)展研究中心2023年發(fā)布的《中國人工智能大模型地圖研究報告》顯示,從全球已發(fā)布的大模型數(shù)量來看,中國和美國大幅領(lǐng)先,占全球總數(shù)的80%以上。
雖然大模型發(fā)展如火如荼,但大模型高質(zhì)量語料短缺已成為全球共性問題。公開資料顯示,大模型對數(shù)據(jù)供給要求極高。比如,訓練GPT-4和Gemini Ultra大概需要4萬億至8萬億個單詞。麻省理工學院等高校研究人員預測,到2026年之前,機器學習數(shù)據(jù)集可能會耗盡所有可用的高質(zhì)量語料數(shù)據(jù)。研究機構(gòu)EpochAI亦公開表示,最早在2024年,人類就可能會陷入訓練數(shù)據(jù)荒,屆時全世界的高質(zhì)量訓練數(shù)據(jù)都將面臨枯竭。OpenAI也公開表達過對數(shù)據(jù)告急的擔憂。
值得注意的是,當前大模型數(shù)據(jù)集主要為英文。中文語料面臨的短缺問題更加嚴峻。
中國工程院院士、鵬城實驗室主任高文曾公開表示,全球通用的50億大模型數(shù)據(jù)訓練集里,中文語料占比僅為1.3%。
上海數(shù)據(jù)交易所市場發(fā)展部副總經(jīng)理章健此前公開表示,當前大模型行業(yè)存在語料供應不足的問題,特別是在垂直細分領(lǐng)域,一些共享、免費下載的語料數(shù)量雖然大,質(zhì)量卻不高?!拔覀冊谧非笳Z料數(shù)量增長的同時,也要重視質(zhì)量。”章健說。
高質(zhì)量語料應具備七大特征
那么,何為高質(zhì)量語料?記者采訪時,包括騰訊、商湯科技、哈爾濱工業(yè)大學(深圳)等企業(yè)和高校專業(yè)人士均給出一致答案:高質(zhì)量語料應具備多樣性、大規(guī)模、合法性、真實性、連貫性、無偏見和無害等七大特征。
邵睿表示,高質(zhì)量語料應具有多樣性高、句式流暢的特點。騰訊機器學習平臺算法負責人康戰(zhàn)輝認為,語料的多樣性是保證語料質(zhì)量的基礎(chǔ),要通過不同的途徑采集新聞、小說、詩歌、科技文章等不同類型的語料。這有助于大模型學習到更豐富的語言表達。
同時,高質(zhì)量語料要具有較大規(guī)模,因為大模型需要大量語料來學習語言規(guī)律并提高泛化能力。只有擁有充足的語料,大模型才能更好地捕捉細微的語言特征。
此外,高質(zhì)量語料應是合法且無害的。不合法或有害的語料可能導致模型產(chǎn)生不恰當?shù)幕卮鸹蚪ㄗh,或無意中泄露他人隱私。
“高質(zhì)量語料還應該具有真實性和連貫性,以便讓大模型更好地理解語境并生成符合邏輯的回答?!笨祽?zhàn)輝說,語料庫應該充分反映語料的多樣性并避免偏見,這樣大模型在不同場景下回答不同用戶的問題時才能做到盡可能科學客觀。
完善相關(guān)機制提高語料質(zhì)量
記者在采訪中了解到,目前訓練大模型的語料有一部分是從數(shù)據(jù)公司購買的,也有一部分是從網(wǎng)絡公開語料或者公開數(shù)據(jù)集中獲取并整理的?!皬臄?shù)據(jù)公司購買的語料質(zhì)量較高,并且大多是垂域數(shù)據(jù),但其數(shù)據(jù)量較少且價格較貴?!鄙垲Uf,“網(wǎng)絡公開語料通用性較好,數(shù)據(jù)量大,但數(shù)據(jù)質(zhì)量無法保證,數(shù)據(jù)格式難以統(tǒng)一?!?/p>
“人類產(chǎn)生的有效信息,包括大量高價值信息可能不一定是互聯(lián)網(wǎng)數(shù)據(jù),而是沉散在各行各業(yè)里的數(shù)據(jù)?!鄙虦萍及l(fā)言人說,“怎樣更多匯聚數(shù)據(jù),設計更多、更好的網(wǎng)絡結(jié)構(gòu),用更多的計算資源去支撐更大容量的高質(zhì)量語料,產(chǎn)生更強的智能,是一個至關(guān)重要的問題?!边@位發(fā)言人認為,要解決語料問題,不僅要靠增加語料總量,還需要提高語料質(zhì)量,甚至要考慮完善數(shù)據(jù)交換機制,推動人工智能數(shù)據(jù)基礎(chǔ)設施化。
正如這位發(fā)言人所說,目前業(yè)界正在采取一些措施,推動數(shù)據(jù)交換機制的建設。記者梳理發(fā)現(xiàn),2023年7月,深圳數(shù)據(jù)交易所聯(lián)合近50家單位成立開放算料聯(lián)盟。該聯(lián)盟將圍繞高質(zhì)量中文訓練數(shù)據(jù)和多模態(tài)訓練數(shù)據(jù),協(xié)調(diào)數(shù)據(jù)要素、數(shù)據(jù)治理、訓練數(shù)據(jù)、數(shù)據(jù)標注、合成數(shù)據(jù)等相關(guān)標準制定,協(xié)助數(shù)據(jù)交易所增加與大模型相關(guān)的新品類和新專區(qū)。
同樣是2023年7月,在2023世界人工智能大會現(xiàn)場,中國大模型語料數(shù)據(jù)聯(lián)盟成立。同年8月,上海人工智能實驗室宣布,聯(lián)合中國大模型語料數(shù)據(jù)聯(lián)盟成員單位共同開源發(fā)布“書生·萬卷”1.0多模態(tài)預訓練語料。這次開源的數(shù)據(jù)總量超過2TB,包含超5億個文本、2200萬個圖文交錯文檔、1000個影像視頻。
除了建設更為完善的體制機制,數(shù)據(jù)清洗等技術(shù)手段也能在一定程度上解決高質(zhì)量語料短缺難題。但要看到,這些技術(shù)手段有較高門檻。商湯科技發(fā)言人透露,該公司在數(shù)據(jù)清洗的過程中投入了上千塊GPU的算力。OpenAI在無數(shù)場合介紹過GPT-4訓練的經(jīng)驗,但從未公開過數(shù)據(jù)清洗的經(jīng)驗。
版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責任。