本報北京8月18日電 (記者王云杉)記者從國家數(shù)據(jù)局獲悉:中文數(shù)據(jù)在國內大模型的訓練性能提升方面發(fā)揮著重要作用。國內多數(shù)模型訓練使用的中文數(shù)據(jù)占比已經超過60%,有的模型達到80%。中文高質量數(shù)據(jù)的開發(fā)和供給能力持續(xù)增強,推動我國人工智能模型性能快速提升。
在人工智能時代,Token(通常所說的詞元)是處理文本的最小數(shù)據(jù)單元。國家數(shù)據(jù)局局長劉烈宏介紹,2024年初,我國日均Token的消耗量為1000億,截至今年6月底,日均Token消耗量已經突破30萬億,1年半時間增長了300多倍,反映了我國人工智能應用規(guī)模的快速增長。
《 人民日報 》( 2025年08月19日 06 版)