作者:Howie Su(产业分析师)
三大云端巨头成形,疯狂寻找AI应用
几十年前,大学的人工智慧课程多半讨论透过辨识大量数据中的型态与趋势来寻找答案,即便许多公司建立庞大的资料库,但人工智慧只有在 GPU 和AI晶片与复杂演算法运作下才能发挥功效,因此,当前的云端业者正在根据下面三种模式形成策略:收集数据、提供演算法与数据集,以及相关的运算硬体,区别在於云制造商如何打包这三者并将其提供给客户。但也有例外,例如 Meta 的 Llama 2 大语言模型,可透过 Microsoft 的 Azure 和Amazon的 AWS 获得,不过Meta的大型语言模型似乎并未形成潮流,真正发酵时机点是生成式人工智慧的出现,让三家业者成为人工智慧云端的主流,Google、Microsoft、Amazon。而面对Microsoft的进逼,Google与Amazon的做法大不相同。
Google:着重长期的商业模式调整
微软OpenAI的出现情况让Google吓了一跳,作为回应,公司提前宣布将其名为 PaLM 的大型语言模型商业化到其搜寻、地图、影像与其他数位产品中。尔後,Google於 5 月份发布了 PaLM-2,目前该产品正在整合到其搜寻产品和 Workspace 应用程式中,该公司还将其各个人工智慧部门(包括 DeepMind 与Brain)合并为一个部门。此外,在看到社会对微软与 OpenAI 的恐慌与抵制後,Google开始重视安全和道德,并将其人工智慧工作主要视为实验性的技术。但与微软一样,公司正在积极探索最新模型PaLM-2的使用,希望利用它来产生长期收入。该公司还在训练名为 Gemini 的新模型,该模型由 DeepMind 开发,有机会成为该公司下一代人工智慧与云端产品的基础。
即便公司的 PaLM-2 尚未达到微软 GPT-4 的商业化程度,但可以透过 Vertex AI 产品在Google 云端上向某些客户提供服务,Google Cloud 因其能够根据特定需求定制模型的能力而受到开发人员的喜爱—透过使用 PaLM-2 只需几行程式码即可建立基本应用程式。公司也提到 Duet,让使用者在 Workspace 中提高工作效率,一如 Microsoft 365 的 Co-pilot 功能一样。Google还透过其「Built with AI」模型采用开放式方法,让该模型允许公司与第三方云端服务商上合作,以在 Google Cloud 上部署各种软体。与过去不同,Google不再着重搜寻引擎与广告收入,而是开始提升各种数位产品,加上云端的综合型运用,希望长期调整能够调整公司的商业模式,而非单押特定业务作为获利来源。
Amazon:运算Everywhere
有别於Google,Amazon正在采取另一种方法,在模型和硬件等各个层面提供灵活性,以便在 AWS 上运行人工智慧,这就像典型的亚马逊购物体验—放弃选择的人工智能,选择所需的计算,然後在结账时付款。Amazon正在透过最近的 EC2 P5 加大运算力道,其中 20,000 个 Nvidia H100 GPU 可以整合进集群中,从而提供高达 20 exaflops(每秒浮点运算次数) 的性能,使用者能够部署并扩展到数十亿或数兆参数的机器学习模型中,这种运算能力能强化云端按需付费的黏着度,一如该公司声称的:「云端供业者有个重要驱动因素:触手可及的计算可用性。它是有弹性的,是按需付费的。你启动它们,训练,付费,一但关闭它们,你就不再付费了」。
第二个是AWS 最近推出了一个名为「代理」的新概念,它将独立数据链接到大型语言模型来回答问题,基础模型可以通过链接到外部数据库来提供更有用的答案,AWS 在最近於纽约举行的 AWS 大会上宣布了众多云端中人工智慧功能,而「代理」正是其中之一。Amazon的坚持是,随着人工智慧的成熟,模型的重要性将降低,重要的是云端提供商满足客户需求的价值和能力,哪里有云,哪里就能运算,人工智慧主要则是强化云端的加值。