科技前綫|唔上網都用到AI?Google 推出 Gemma 4 免費智能助理 離線單GPU都能用?

發佈日期: 2026-04-07 07:30
國際
無綫新聞 TVB News
無綫新聞 TVB News
無綫新聞 TVB News
已複製連結
Google DeepMind 上周推出了 Gemma 4,涵蓋四個開放權重模型(open-weight models),這些模型都可以容納在單張的輝達 Nvidia 圖形處理器(GPU) 上。這意味用戶可以在自己的電腦上離線使用 Gemma 4,不需要把敏感資料傳送到雲端。

▌ Gemma 4 有甚麼功能?

根據谷歌 Google,Gemma 4 採用 Agent Skills,即可以預設好一套「遇到這類任務,你就這樣做」的指令,省卻用戶每次說明任務背景和注意事項等的時間。

Gemma 4 是首批能夠在裝置端完全執行多步驟,自主智能體工作流程的應用程式之一,可以存取其初始訓練資料以外的資訊。它也能把段落或影片轉換為簡潔摘要,或者將數據轉換為互動式圖表或圖形,目前支援超過140種語言。

▌ Gemma 4 的主要不足

根據《福布斯》分析,Gemma 4 其中一個缺點是推論速度,尤其是260億參數的混合專家(MoE)模型,在部分硬體配置上實際處理速度不如預期。另外,模型與現有工具鏈的整合尚不穩定,有待後續更新。它最大的「上下文窗口」(context window)為25.6萬token,雖不小,但遠低於競爭者 Meta 的 Llama 4 Scout 的1000萬 token 和阿里巴巴的千問 Qwen 的100萬token,這對於處理極長文件或完整程式碼庫的場景影響顯著。

▌ Gemma 4的推出標志著甚麼?

《福布斯》分析續指,Gemma 4 的發布標誌著 Google 與 Nvidia 在開源模型領域進入了更深層次的戰略合作。對 Google 而言,這讓它的模型能夠直接應用在企業運算中最普及的 Nvidia GPU 平台上。對 Nvidia 來說,則獲得了一個高效能的開源模型,能說服企業購買 GPU,而不是完全依賴雲端 API。前代 Gemma 系列已經累積了四億次下載,顯示其受歡迎程度。而 Gemma 4 能否將這股關注度,真正轉化為大規模落地應用,將取決於 Google 及其合作夥伴,能以多快的速度解決早期使用者所反映出的速度與工具鏈整合問題。

(旁述由AI人工智能生成)

無綫新聞 TVB News
無綫新聞 TVB News
無綫新聞 TVB News