红帽CEO:以开源之力为生成式AI铺路
CBINEWS
责任编辑:邹大斌
电脑商情在线
时间:2024-05-13 10:20
红帽 生成式AI 大模型 OpenShift
红帽是开源软件领域的一面旗子。红帽成立于1993年,2年多前才推出的Linux备受市场追捧,红帽正是抓住了这个机会,推出了红帽Linux发行版和相关服务,而成为了一家成功的开源公司。在红帽CEO Matt Hicks看来,今天有一个类似的机会出现了,这就是生成式AI。
“今天的情形与上世纪90年代Linux刚兴起来的时候有些类似。我们凭直觉都知道AI正在给这个世界带来新的变化,红帽能够帮助训练和开发大模型,这将为红帽带来巨大的机会。” Matt Hicks表示。
Matt Hicks是在5月份举办的红帽峰会期间接受媒体采访时做上述表述的。红帽峰会是红帽一年一度最重要的市场活动之一,红帽的重要产品发布也常常选择在这个时候。今年也不例外,大会上红帽发布了很多产品,包括RHEL AI、新版OpenShift AI等。正如Matt Hicks所述,AI被红帽视为一个关键的发展机遇,所以,今年的发布都离不开关键词AI。
让大模型可以灵活部署
众所周知,今天大模型非常“卷”,参数规模越来越大,直奔万亿规模而去,如GPT-5参数规模就超过1.5万亿。这些大模型通常需要大量的算力支持,因此大多数运行在云上或者超大数据中心。显然,并不是每个企业都需要这么大规模的大模型的,这里的问题是现有的小模型又无法满足需求,这也成为很多生成式AI应用落地的一大阻力。
“许多客户尝试过使用规模较小的模型进行微调和训练,但往往成效不佳。因此,他们不得不使用我所说的‘全知模型’——这些模型通常在公共云中运行,参数量超过1万亿。尽管这些模型开箱即用能完成许多任务,但它们的运行和训练成本非常高。”Matt Hicks说
另外,有很多场景不能使用云环境中的大模型。例如,我们希望在笔记本电脑上运行模型以提高生产力,要求数据不能离开过设备。这些模型无论用于编程还是写作,都能增强工作效率,但它们无法在云工作流中得到增强。
“我们必须改进这些小型模型,使其更好地适应实际任务,这需要在特定用例上完成最后一段训练。这就是我们推出InstructLab的原因。仅仅发布一个有7亿、3亿或10亿参数的模型是不够的。我们需要使客户能够针对他们的具体应用场景,在笔记本电脑、边缘设备、汽车或数据中心训练和使用这些模型。”Matt Hicks说。
Matt Hicks表示,红帽能帮助客户解决这个问题。这是因为红帽与其他公司的一个不同是,红帽能提供足够的灵活性,支持大模型运行在任何需要的地方运行。
Matt Hicks介绍,红帽致力于支持小型的开源模型进行混合部署,可以在公共云或您的数据中心训练这些模型,并在边缘部署它们,其理念与红帽在应用领域的信念一脉相承。同时,红帽的平台设计还支持所有主要GPU提供商,包括NVIDIA、AMD和Intel。这种能力同样类似于Linux早期,当时红帽企业版Linux编译的应用可以在不同的硬件平台运行。
“我们旨在为您今天和将来AI应用要使用的硬件以及模型运行的位置提供足够的灵活性,不管是公共云还是边缘。目前在行业中这是一种独特的能力。”Matt Hicks说。
推动开源生成式AI的创新
正是为了降低企业开发和部署大模型,降低生成式AI的落地技术门槛和成本难题,红帽今年多项产品。全新发布的RHEL AI就是其中之一。
RHEL AI是一个基础模型平台,能够使用户更加便捷地开发、测试和部署生成式人工智能(GenAI)模型。RHEL AI整合了IBM研究院的开源授权Granite大型语言模型(LLM)系列、基于大规模对话机器人对齐(LAB)方法的InstructLab模型对齐工具,以及通过InstructLab项目实施的社区驱动模型开发方法。该解决方案被封装成一个优化的、可启动的RHEL镜像,用于在混合云环境中部署单个服务器,并已集成到OpenShift AI中。
OpenShift AI是红帽的混合机器学习运营(MLOps)平台,能够在分布式集群环境中大规模运行模型和InstructLab。该平台的最新版本红帽OpenShift AI 2.9,提供了很多功能改进,包括可以将AI模型部署扩展到偏远地点的边缘模型服务、通过多个模型服务器支持预测式和生成式AI的增强型模型服务等。
这些最新进展彰显了红帽关于人工智能的愿景:从底层硬件到服务和工具,如Jupyter和PyTorch,红帽为客户提供了全方位的支持,旨在加速创新、提高生产力。并通过这个更灵活、扩展能力更强、适应性更佳的开源平台,企业能够将人工智能应用于日常业务运营中,无论是在云环境中还是在其他环境中。
颇有意思的是,如今红帽产品出现了RHEL与RHEL AI、OpenShift与OpenShift AI并存的局面。Matt Hicks说,这恰恰说明红帽既兼顾传统也支持创新:RHEL用于运行所有可以在Linux上运行的应用程序,而RHEL AI则用于运行可以通过训练和定制大型语言模型的AI部分。OpenShift用于管理可以在RHEL上以分布式方式跨集群运行的所有应用程序,而OpenShift AI则以相同的方式管理一系列模型,高效地分割训练、使用和提供服务。
“这也体现了人工智能并不是孤立存在的——它只是你的应用程序、你的员工、开发人员使用的一种工具。因此,我们能看到传统应用与人工智能应用程序之间产生许多交叉链接和整合。”Matt Hicks表示。
值得一提的是,尽管红帽的产品在向AI倾斜,但作为红帽立身之本,Linux的作用并不会因此有所降低。Matt Hicks认为Linux将继续扮演至关重要的角色。
他说,尽管我们使用Linux的方式正在演变,但支持大型语言模型操作(如训练和推理)的核心软件堆栈,例如PyTorch和Python堆栈,对Linux有着极大的依赖。Linux优化了这些软件的整合和性能,并作为GPU、CPU和新兴硬件类型之间的协调者。同时,我们看到Linux的发展,例如基于图像或模式增强,以促进为AI应用程序优化的类似设备的能力。Linux使这些软件堆栈能够有效地运行。
“我认为在由人工智能主导的领域中,它仍将是我们技术基础设施的关键组成部分。” Matt Hicks说。