譚鐵牛:GPT-5遲遲出不來說明蠻力發(fā)展不可持續(xù)
中新網(wǎng)蘇州4月10日電(記者 吳濤)“在我看來,通用人工智能還任重道遠,堆算力、堆數(shù)據(jù)的蠻力AI發(fā)展模式不可持續(xù)。”10日,在2025中國移動云智算大會上,中國科學院院士、南京大學黨委書記譚鐵牛表示。
在4月初,OpenAI首席執(zhí)行官Sam Altman在社交平臺公開表示,GPT-5發(fā)布暫緩,可能在幾個月之后才發(fā)布。
譚鐵牛分析,首先堆算力、堆數(shù)據(jù)的模式對AI性能的提升不可持續(xù)。GPT-5遲遲出不來,也就是說明,投入同樣的數(shù)據(jù),同樣的算力,性能的提升沒有以前那么大了,所以性能提升不可持續(xù)。
此外,譚鐵牛認為,能耗也不可持續(xù)?!爸悄堋币嗌佟爸恰?,就得消耗多少“能”,這顯然與可持續(xù)發(fā)展道路背道而馳。
“第三是數(shù)據(jù)支撐不可持續(xù)。數(shù)據(jù)用完了怎么辦?用生成式數(shù)據(jù)?大家都知道生成式數(shù)據(jù)有幻覺,有錯誤的信息,帶來的不是額外的知識,而是噪聲。大家可以想象,用這樣的數(shù)據(jù)來訓練大模型會是一個什么結果?!?/p>
所以譚鐵牛認為,AI發(fā)展路徑要從“蠻力”向“靈巧”轉(zhuǎn)移,發(fā)展高效、輕量級的人工智能至關重要,通過算法創(chuàng)新、理論創(chuàng)新、工程創(chuàng)新等實現(xiàn)這一路徑。
“當然,推進人工智能的發(fā)展也不能一葉障目,大模型等生成式人工智能不是AI的全部,AI賦能不限于大模型,所以我覺得人工智能研究,應該回歸本源,在熱潮的背后,冷靜下來,看一看到底應該怎么發(fā)展?!弊T鐵牛表示。(完)


經(jīng)濟新聞精選:
- 2025年05月19日 14:21:59
- 2025年05月16日 16:00:05
- 2025年05月16日 14:14:42
- 2025年05月16日 14:01:09
- 2025年05月16日 11:31:01