为什么Databricks收购MosaicML
2023年07月12日 由 Susan 发表
415358
0
Databricks收购MosaicML旨在通过为企业提供可访问的工具,以使用自己的数据构建,拥有和保护生成式人工智能模型,从而使人工智能民主化。
上个月,数据处理巨头Databricks宣布了与生成式人工智能平台MosaicML的买卖合同,收购交易价值约13亿美元。
此次收购旨在使企业能够“构建、拥有和保护一流的生成式人工智能模型,同时保持对数据的控制。” Databricks的CEO Ali Ghodsi强调了民主化人工智能的目标,使“Lakehouse成为构建生成式人工智能和LLM(大语言模型)的最佳场所”。
MosaicML以其先进的MPT大规模语言模型而闻名,并为企业提供一种使用自己的数据以经济高效的方式快速构建和训练模型的方法。同时,作为一家公司,MosaicML还因声称提供价格低廉的服务,与LLaMA和Falcon等开源领军者不相上下,具有吸引力。
MosaicML的提供内容
MosaicML于2016年由斯坦福大学电子工程师Naveen Rao和哈佛大学毕业生Hanlin Tang创立,共计筹集了3700万美元的资金。其最新一轮融资是在2023年1月1日进行的。
MosaicML提供了多种选项让开发者利用其平台,包括API用于与前端应用程序轻松集成以及使用自己的数据自定义模型。
开发者还可以使用MosaicML的工具从零开始预训练定制模型,并通过该平台提供服务。MosaicML与LangChain等第三方工具的兼容性允许开发者在其自定义模型之上利用这些工具,提供完整模型的灵活性和所有权。
与其竞争对手一样,MosaicML提供其技术以出租的方式,但其通过向客户提供代码来与众不同。这使得客户可以在自己的硬件上运行代码,确保其数据对MosaicML保密。这种方法吸引了更注重数据隐私的企业客户,因为人工智能系统的价值在很大程度上取决于所使用的训练数据。
该公司强调开源模型的重要性,特别是在处理敏感数据的行业中,当地定制和对模型的控制至关重要。MosaicML专注于为医疗保健和银行等特定行业提供服务,提供安全解释和总结大量数据的能力。
该公司声称将其技术以更低的价格使所有组织机构都能够使用,比竞争对手便宜多达15倍。AI2、Generally Intelligent、Hippocratic AI、Replit和Scatter Labs等重要客户利用MosaicML进行各种生成式人工智能用例。
MosaicML的MPT-30B LLM是一个拥有3000亿参数的模型,该公司声称其质量超过了OpenAI的GPT-3,尽管参数要少得多,从而更容易在本地硬件上运行,并且更具成本效益。
MosaicML使用的名为“FlashAttention”的注意机制提供更快的推理和训练速度,使其比Falcon和LLaMA更高效。另外,MPT-30B的设计适应实际硬件的限制,优化其在深度学习GPU上的性能。
此外,MosaicML声称MPT-30B在性能方面与LLaMA和Falcon相媲美。该模型在训练时需要较少的计算资源,同时提供类似的结果,尤其在编码任务方面。
Databricks的动机
通过几个战略举措,Databricks在市场中找到了强劲的定位。LakehouseIQ的推出、对MosaicML的收购以及Unity Catalog的开发,使Databricks处于有利的位置,能够保持市场地位并竞争增量市场份额。
随着时间的推移,MosaicML的平台将被整合和扩展,提供一个统一的平台,客户可以在其中“构建、拥有和保护他们的生成式人工智能模型”。对Databricks来说,收购MosaicML是一个战略举措,旨在为企业提供易于使用、成本效益高的工具,使用自有数据轻松构建大型语言模型(LLMs)。
通过将这个过程整合到Databricks更广泛的工具链和工作流程中,该公司旨在减少培训和运行LLMs所需的成本。该战略认识到了市场对更具成本效益、精细调整用于特定任务的专业LLMs的需求。虽然通用型LLMs将继续存在,但Databricks看到了为满足定制解决方案需求的机会。Snowflake和Databricks都积极致力于提供企业级的治理和知识产权保护,作为其专业LLMs产品的一部分。
Databricks的Lakehouse平台与MosaicML的技术相结合,将为客户提供一种“简单、快速的方式,以低成本保留对其宝贵数据的控制、安全和所有权。” MosaicML声称,其模型培训的自动优化使得培训速度比标准方法快2倍到7倍。
来源:https://analyticsindiamag.com/why-databricks-acquired-mosaicml/