標籤: Vertex AI

  • Google Cloud 生成影片模型 Veo 在 Vertex AI 限量測試 搶飲 OpenAI Sora 頭啖湯

    Google Cloud 生成影片模型 Veo 在 Vertex AI 限量測試 搶飲 OpenAI Sora 頭啖湯

    生成式 AI 新戰場轉向影片,Google 早前發表的模型 Veo 今月在 Google Cloud Vertex AI 平台上供私人預覽試用。有指 OpenAI 更強勁功能的影片生成模型 Sora 快將公開可用,令 Google 在今月給外界有限度測試。實際上,亞馬遜在上星期的 AWS re:Invent 大會發表 Nova 模型,包括生成影片的 Reel。

    Google 在今年的 I/O 大會已展示過 Veo,由 DeepMind 研發,用文字或圖片生成短片。當時根據 Google 的公布,Veo 可以生成超過 1 分鐘的 1080p 影片,支援不同電影和視覺風格。

    Google Cloud 在網誌示範 Veo 的能力:

    Veo 可以使用圖片生成短片。
    Veo 可以使用圖片生成短片。
    Veo 亦支援文字生成短片。
    Veo 亦支援文字生成短片。

    Google Cloud 稱,企業能透過 Vertex AI 上的 Veo 從文字或圖像提示生成影片,技術配合人類創意,讓創作者專注創作,AI 則協助處理影片製作中事務,行銷人員、銷售團隊或製作團隊都適用 Veo 簡化工作流程和改變視覺敘事。

    Google Cloud 今星期亦開放圖片生成模型 Imagen 3 予 Vertex AI 所有用戶,不過要先加入申請名單等候開放。Imagen 3 提供編輯圖片功能,透過輸入文字可以作修改,如更新產品背景或提升圖像解像度。企業可以將個人品牌、風格、標誌等,融入生成的圖像,製作廣告及行銷素材。

    雖然 Google Cloud 搶在 OpenAI Sora 公開試用前提供私人預覽,不過亞馬遜的 Nova Reel 已正式可用(General Available),透過 Amazon Bedrock 便可存取。亞馬遜行政總裁 Andy Jassy 親自重回 AWS re:Invent 主題演講發表模型,目前可生成 6 秒短片,稍後加長至 2 分鐘,支援運鏡控制,亦有負責任 AI、水印等安全功能。

    最新影片

  • 企業引入 AI 成功關鍵 Google Cloud 建議考慮 3 項:增長、效率和未來

    企業引入 AI 成功關鍵 Google Cloud 建議考慮 3 項:增長、效率和未來

    企業採用生成式 AI,已證明能有效提升工作效率和生產力。企業紛紛引入技術,卻未必得到預期成效。Google Cloud 全球人工智能業務董事總經理 Caroline Yap 指出,這次企業的 AI 熱潮源自由上而下推動,成功的關鍵在於改變內部文化。

    Caroline Yap 表示,Google 在過去多年來一直推動 AI 技術,由過去的機械學習(ML)技術提供預測式 AI,以至近年興起的生成式 AI,現在的需求達至前所未有般殷切。生成式 AI 徹底改變商業環境和消費者行為,過去 18 個月亦忙於跟全球各企業管理層會面,起碼超過 1,500 人,大多都在問:「如何開始在業務內引入 AI?」

    Caroline Yap 認為,企業引入 AI 實際上是另一次轉型,應考慮 3 個 AI 的目標:增長、效率和未來。通常企業先為效率而引入,不過卻只為解決當前問題,往往忽略增長的機會,以至缺乏創新,去為企業進一步加強競爭優勢。引入 AI 時應該以增長和未來為首選目標,自然帶來提升效率的效果。

    她以零售為例,生成式 AI 已大幅提升效率,不過若論到增長,同一技術可以有更多用途,例如對話機械人(chatbot)給用戶搜尋產品的過程,可以協助發現更多感興趣的產品,提供個人化服務。背後實際上分析用戶的行為,數據也供商戶作業務決策。

    以人為本引入 AI

    引入 AI 技術時還要考慮企業文化因素,Caroline Yap 指出,以人為本地採用 AI,更有效將 AI 融入企業之內。有效方法如讓員工試用不同的 AI 工具,而且由他們提出使用 AI 的方法,實際地解決業務問題,尋求進一步增長。她強調,轉型時先慮員工的接受程度、使用方式等,而技術的重要程度相對較低。

    這次 AI 熱潮在消費者層面廣為採納,企業應順勢而為。她形容,情況有如 10 年前興起智能電話由員工提出 BYOD,同一道理地為員工提供慣用的工具去啟發更多 AI 在業務內的用途。

    Google Cloud 為企業辦工作坊,讓管理層和員工了解生成式 AI 的技術,從中發掘在業務中使用的可能。工作坊甚至為不同崗位規劃未來採納 AI 的路線圖。目前已有多間企業與 Google Cloud 合作引入 AI 技術,如法國名牌 LVMH。近日保險公司保誠公布在新加坡開設 AI 實驗室,Google Cloud 亦是合作夥伴之一。

    Vertex AI 管理企業模型

    Caroline Yap 指出,目前的 LLM 和生成式 AI 技術已有一定成熟,企業引入時毋須顧慮。企業在 Google Cloud 上用 Vertex AI 托管機械學習模型,內裡有模型花園(Model Garden)提供逾 150 個基礎模型,如 Google Gemini、Meta Llama、Mistral AI、Anthropic Claude 等,甚至有小型語言模型可用。配合 BigQuery 等服務存取企業數據用作微調模型,可直接應用在企業的程式。

    為加強模型生成內容的真實性,Vertex AI 今年新增可信的第三方數據集,目前的數據供應商有穆迪、MSCI、湯森路透、ZoomInfo 等,提供可靠的數據來源,而且日後將加入更多數據集擴闊事實基礎。

    至於企業最關注的 AI 安全和信任,她指出,Vertex AI 基於企業級保安開發,而且 Google 有廣泛的消費者網絡服務,熟知各地的網絡和數據法規,應用在 AI 托管方案之內。

    最新影片

  • Google Cloud 內部用 GenAI 生成 Proposal 撰寫時間減半倍增中標機會

    Google Cloud 內部用 GenAI 生成 Proposal 撰寫時間減半倍增中標機會

    Google Cloud 團隊近期內部用 Gemini 開發 RFP Accelerator 和 PitchGen 程式,協助快速生成計畫書和演示簡報,去競投客戶項目。既可以減少撰寫計畫書時間近一半,也因為可按對象生成相關的內容,令中標機會增加 50%。正好示範由員工推動創新,給團隊加強生產力。

    銷售人員處理大量文件工作,尤其回應客戶的邀請計畫書(Request for Proposal,RFP)更花耗時間。Google Cloud 亞太區行銷及計畫書部門主管 Agnes Loek 表示,實際上每次撰寫計畫書都用上不少時間做重覆的工作,以相同的資料回應不同客戶提出的要求。於是想到開發 RFP Accelerator,只填寫所需內容,由生成式 AI 產生計畫書。

    RFP Accelerator 基於 Google Workspace 開發,在 Google Cloud 的 Vertex AI 內運用內部文件調整 Gemini 1.5 Pro,經 API 存取模型。每當接到 RFP,上載後由模型讀取內容,分析客戶的要求。軟件整理成相應的問題,交由團隊各人負責,指示從內部文件尋找答案回應,將回應整合並生成計畫書,便可以提交去入標競投。

    Agnes Loek 指出,RFP Accelerator 能在 1 分鐘內回答 12 個問題,若客戶的 RFP 複雜,可以分成數百個問題。曾試過用 Gemini 1.5 Pro 回答約 300 個問題,需時僅 19 分鐘完成。這令編撰計畫書的過程去回應 RFP 可以減少時間 35% 至 50%,而生成的內容覆蓋範圍增加 1 倍,令表達的回應更準確。而且有統一文字風格和內容去回應 RFP,增加中標機會。

    Google Cloud 銷售團隊還自行開發 PitchGen 程式,利用所提交的計畫書和 Google Workspace 的文件生成演示簡報。而且輸入的提示詞包括行業、方案、地區、產品、客戶名稱,以至匯報對象。Agnes Loek 稱,對象尤其重要,可以按照行政總裁(CEO)、技術總監(CTO)、資訊總監(CIO)、財務總監(CFO)等不同對象去生成專屬的簡報,按照各職位感興趣的重點製作,提升對方對方案的興趣。

    當用戶選定生成的選項,PitchGen 先在 Vertex AI 產生故事大綱,檢視和修改後,接著生成簡報所需的圖片和影像。不過由於處理圖片需要,產生演示的簡報大約需要 20 分鐘,也較以往逐頁製作節省時間得多。

    Agnes Loek 表示,不少客戶對 RFP Accelerator 和 PitchGen 感興趣,惟目前只限內部使用,亦只適合團隊使用,因用上大量 Google Cloud 文件調整 LLM,生成 Google 相關的計畫書。不排除日後或可能成為新產品推出市場。

    團隊當初開發 RFP Accelerator 和 PitchGen,僅是考慮到用 LLM 自動化重覆的工作。Agnes Loek 表示,計畫書部門由多個國家的同事組成,大多有工程底子,當想到這創新意念,團隊幾個人便用一個周末去嘗試開發雛型。初步見生成效果,更向公司申請專注開發產品,以用家角度設計的軟件程式,確實貼近需要,去解決日常工作的問題。「意想不到是 Gemini 1.5 Pro 協助更準確遣詞用字,協助提升中標機會。」

    最新影片

  • Google Cloud 第 6 代 TPU 快 4.7 倍 超級電腦架構訓練 AI 模型

    Google Cloud 第 6 代 TPU 快 4.7 倍 超級電腦架構訓練 AI 模型

    Google Cloud 最近發表多項硬件加速訓練 AI,包括第 6 代 TPU Trillium。Google Cloud 運算及機械學習基建業務副總裁暨總經理 Mark Lohmeyer 稱,AI 基建正在朝著軟硬件整合方向發展,建 AI Hypercomputer 超級電腦架構,加速訓練和推理成效。

    科技企業的 LLM 大戰由微軟和 OpenAI 合作領先市場,令 Google 要急起直追,如去年 5 月推出 PaLM 2,年底又改為用 Gemini 應戰。即使 Google 的 LLM 屢次變陣,背後採用自行研發的 AI 加速晶片 TPU 訓練。最前正式推出 TPU v5e,上月又發表第 6 代 TPU Trillium,預計今年底給企業客戶試用。

    Lohmeyer 稱,TPU Trillium 的運算效能較前一代高 4.7 倍,高頻寬記憶體(HBM)增加 1 倍,晶片之間互連頻寬增 1 倍,耗能效善改善超過 67%。將多個 TPU 晶片串連,可以建起效能可比超級電腦的叢集。例如 Gemini 用上由 8,960 顆前一代 TPU v5e 建的叢集訓練而成。

    Google Cloud 上目前提供的 AI 運算基建有 TPU v5e、NVIDIA H100 GPU,而明年會有 TPU Trillium、NVIDIA Blackwell GPU,以及自訂的 Arm 處理器 Axion。

    AWS 設有 SageMaker 及 Bedrock,或微軟 Azure 的 AI Studio 管理 AI 模型,而 Google Cloud 在 2021 年推出同類方案 VertexAI。Lohmeyer 指出,VertexAI 從選擇 AI 模型、用數據調整、檢視成效,到最後整合至企業的應用程式。其中在 Vertex AI 設有模式園地(model garden),提供逾 150 模型給企業選用,如 Gemini、Gemma,以至第三方模型 AnthropicClaude 3​​。

    Google Cloud 在去年推出 AI Hypercomputer 方案,將硬件、軟件整合,加快執行 AI 工作負載的效能。Lohmeyer 形容,有如 20 年前用軟件優化 x86 架構建立雲端平台一樣,現時同樣通過軟件整合硬件平台。AI Hypercomputer 方案調整、管理及動態協調管理硬件上的 AI 訓練及推論工作負載。

    最新影片