時間:2025-04-11 00:02 來源:中新網(wǎng) 閱讀量:13633
“在我看來,通用人工智能還任重道遠,堆算力、堆數(shù)據(jù)的蠻力AI發(fā)展模式不可持續(xù)。”10日,在2025中國移動云智算大會上,中國科學(xué)院院士、南京大學(xué)黨委書記譚鐵牛表示。
在4月初,OpenAI首席執(zhí)行官Sam Altman在社交平臺公開表示,GPT-5發(fā)布暫緩,可能在幾個月之后才發(fā)布。
譚鐵牛分析,首先堆算力、堆數(shù)據(jù)的模式對AI性能的提升不可持續(xù)。GPT-5遲遲出不來,也就是說明,投入同樣的數(shù)據(jù),同樣的算力,性能的提升沒有以前那么大了,所以性能提升不可持續(xù)。
此外,譚鐵牛認(rèn)為,能耗也不可持續(xù)。“智能”要多少“智”,就得消耗多少“能”,這顯然與可持續(xù)發(fā)展道路背道而馳。
--> |
“第三是數(shù)據(jù)支撐不可持續(xù)。數(shù)據(jù)用完了怎么辦?用生成式數(shù)據(jù)?大家都知道生成式數(shù)據(jù)有幻覺,有錯誤的信息,帶來的不是額外的知識,而是噪聲。大家可以想象,用這樣的數(shù)據(jù)來訓(xùn)練大模型會是一個什么結(jié)果。”
所以譚鐵牛認(rèn)為,AI發(fā)展路徑要從“蠻力”向“靈巧”轉(zhuǎn)移,發(fā)展高效、輕量級的人工智能至關(guān)重要,通過算法創(chuàng)新、理論創(chuàng)新、工程創(chuàng)新等實現(xiàn)這一路徑。
“當(dāng)然,推進人工智能的發(fā)展也不能一葉障目,大模型等生成式人工智能不是AI的全部,AI賦能不限于大模型,所以我覺得人工智能研究,應(yīng)該回歸本源,在熱潮的背后,冷靜下來,看一看到底應(yīng)該怎么發(fā)展。”譚鐵牛表示。
聲明:免責(zé)聲明:此文內(nèi)容為本網(wǎng)站轉(zhuǎn)載企業(yè)宣傳資訊,僅代表作者個人觀點,與本網(wǎng)無關(guān)。僅供讀者參考,并請自行核實相關(guān)內(nèi)容。