在Google Cloud Next 24大会上,谷歌公司宣布了三个新的开源项目,这些项目将帮助用户构建和运行生成性人工智能模型,进一步推动人工智能领域的发展。同时,谷歌还在其MAXText项目中引入了新的大型语言模型,为用户提供了更多选择。
据悉,MaxText中的新LLM模型包括Gemma、GPT-3、Llama 2和Mistral,这些模型均支持Google Cloud TPU和Nvidia GPU,为用户提供了更广泛的硬件选择。
此次公布的三个开源项目分别是MaxDiffusion、JetStream和Optimum-TPU。MaxDiffusion是扩散模型的高性能和可扩展参考实现的集合,建立在JAX框架上,该框架为高性能数值计算和大规模机器学习提供了有力支持。谷歌表示,通过优化JAX和OpenXLA编译器在云TPU上的性能,以及与英伟达在大型云GPU集群上的合作,模型构建者可以更加专注于数学模型,而让软件自动实现最有效的性能。
JetStream是一个支持XLA编译器的开源优化LLM推理引擎,旨在满足用户对于高性能且具有成本效益的推理堆栈的需求。Google Cloud计算和ML基础设施总经理Mark Lohmeyer表示,JetStream不仅支持使用JAX和PyTorch/XLA训练的模型,还针对Llama 2和Gemma等流行的开放模型进行了优化,进一步提升了其性能。
最后,谷歌还推出了Optimum-TPU,这是为PyTorch用户推出的一个性能优化工具。Optimum-TPU为培训和推理带来了谷歌云TPU性能优化,支持Gemma 2b模型,并很快将支持Llama和Mistral等其他模型。
这些新项目的推出,无疑将进一步推动生成性人工智能的发展,为用户提供更多选择和更高效的解决方案。同时,谷歌的开源策略也体现了其致力于推动整个行业的创新和进步,相信未来将有更多优秀的人工智能产品和技术涌现出来。
随着人工智能技术的不断发展和应用,谷歌等科技巨头正在积极探索新的解决方案,以满足不同领域的需求。未来,我们期待看到更多创新性的项目和产品问世,为人类带来更加便捷和智能的生活体验。
文章来源于互联,不代表科技云立场!如有侵权,请联系我们。