
理大突破AI訓練瓶頸 低成本分散式技術引領創新
Table Of Contents
**生成式人工智能(GenAI)**的快速發展正在重塑科技格局。然而,高昂的訓練成本和資源門檻卻讓許多研究機構望而卻步。
香港理工大學(理大)人工智能高等研究院(PAAI)的研究團隊近日宣布一項重要技術進展——提出「協作式生成人工智能(Co-Generative AI)」模式,成功將AI訓練從傳統集中式轉向分散式,不僅大幅降低訓練成本,更為全球學術界打開參與AI研發的大門。

該技術的核心在於開源發布了「端到端FP8低比特訓練全套方案」。憑藉這一舉措,理大成為全球少數掌握該技術的學術機構之一。相比主流的BF16精度訓練(一種高精度資料格式,適用於深度學習模型的高效訓練),FP8技術(一種低比特訓練格式,具備更高的計算效率)將訓練速度提升逾兩成,顯存峰值佔用減少逾一成,成本更是顯著下降。此外,團隊還開發了名為「InfiFusion模型融合技術」的創新方法,其特點是僅需數百GPU小時即可完成以往需要百萬級GPU小時的訓練任務,效率提升令人矚目。
打破資源壁壘 助力人工智慧普及應用
目前,生成式人工智慧在技術發展面臨三大挑戰:計算資源需求龐大、數據隱私難以保障,以及新知識吸收效率偏低。針對這些問題,理大團隊從「低成本訓練」與「分散式融合」兩大方向展開攻關。以醫療領域為例,團隊訓練出性能優異的醫療基礎大模型,並研發專屬「癌症GenAI系統(專門用於癌症治療的人工智慧系統)」,可快速積累高質量醫療數據,直接連接醫療設備進行個人化治療規劃。目前,該技術已在復旦大學附屬華山醫院、中山大學腫瘤防治中心等多家機構的合作下,成功推動臨床應用。
楊紅霞教授表示:「我們希望通過**超低計算資源(即極低硬體資源需求)**實現基礎模型訓練,加上高效模型融合,讓更多學術人員能夠投入GenAI研究,匯聚更多力量創新。」這項技術的普及意味著,即便資源有限的中小型研究機構也能參與到前沿AI研發中,從而加速技術迭代。
模型融合的規模效應定律 提供AGI研究新方向
除了降低成本,理大團隊還首次理論驗證了「模型融合的規模效應定律」的可行性。這一定律表明,通過模型融合的方式,可能為通往通用人工智慧(AGI)提供另一條途徑。據了解,這一理念由Thinking Machines Lab倡導;理大團隊則通過嚴謹的數學推導,進一步鞏固了其理論基礎。
趙汝恒教授指出:「人工智慧是加速培育**創新驅動的生產力(即新的生產方式和經濟模式)**的核心,理大新成立的PAAI致力於加速人工智慧技術在各個重點領域的深度融合,並針對不同行業開發具備專業領域知識的人工智慧模型。」他強調,這不僅能鞏固理大在相關領域的領先地位,更能助力香港成為全球生成式人工智慧發展的重要基地。

技術應用前景廣闊
除了醫療,理大團隊在**智能體人工智能(Agentic AI,即具備自主決策能力的人工智慧)**領域亦取得顯著成果。該技術可用作研究生學術助手,協助論文撰寫與審閱,同時作為多模態專利檢索引擎,為創新研發提供高效支持。據悉,楊紅霞教授領導的研究項目已獲得研究資助局「2025/26年度主題研究計劃」、香港特區政府創新科技署「產學研1+計劃」及數碼港「人工智慧資助計劃」的資助,標誌著香港在全球人工智慧創新領域取得具體進展。
隨著這一系列技術的逐步落地,香港有望在生成式人工智慧領域迎來新的發展機遇,為全球人工智慧技術的普及應用提供新契機。


