Google Cloud 宣布企業用 AI 平台 Vertex AI 在模型和功能上的重大進展與升級。數十項的新功能,將用於調整、強化、自訂、擴展,以及提升平台的可靠度及安全性,協助企業能更快推出強大的 AI 虛擬服務專員。

Gemini 1.5 Flash :領先市場的性價比與低延遲性

我們在五月時發布輕量級模型 Gemini 1.5 Flash 的公開預覽版,現在已能夠全面開放使用。Gemini 1.5 Flash 結合了低延遲、極具競爭力的價格,以及擁有 100 萬個詞元(token)的脈絡長度(context window)的優勢,成為各種大規模應用案例的最佳模型選擇,包括零售客服虛擬專員、文書處理,甚至是能夠整合整個倉儲(repositories)的研究虛擬專員。

最重要的是,Gemini 1.5 Flash 基於其強大功能、低延遲和成本效益,很快地成為我們客戶的最愛。與 GPT 3.5 Turbo 等同類模型相比,Gemini 1.5 Flash 具有許多強大的優勢:

  • 100 萬個詞元的脈絡長度,比 GPT-3.5 Turbo 所提供的脈絡長度多了約莫 60 倍

  • 處理 1 萬個字元時, 平均速度比 GPT-3.5 Turbo 快 40% [註一]

  • 啟用脈絡快取(context caching)功能處理超過 32,000 個字元的輸入時,與GPT-3.5 Turbo 相比,輸入成本最高可降低 4 倍

企業及開發人員可以點選此處立即開始使用 Vertex AI 上的 Gemini 1.5 Flash。