IBM 宣布在 watsonx 上提供开源的 Mistral AI 模型----扩大模型选择范围,帮助企业以可信和灵活的方式扩展 AI
- IBM 提供 Mixtral-8x7B 对于优化版本,该版本最多可以缩短延迟时间 75%
- IBM、目录增加了第三方和开源模型,为客户提供了更多的选择和灵活性
- 是watsonx watsonx是人工智能和数据平台上最新的开源模型,为企业提供人工智能开发平台、数据存储和处理功能
IBM(纽约证券交易所代码:IBM)Mistral最近宣布 开源Mixtral-8x7B大型语言模型广受欢迎(LLM)watsonx人工智能和数据平台已经可以使用了。

IBM_watson_x_social
IBM 提供了 Mixtral-8x7B 在内部测试中,与常规模型相比,优化版本可以将吞吐量(即在给定时间内可处理的数据量)提高50%[i]。这可能会减少时间延迟 35-75%取决于批处理量的大小,从而加快获取洞察力的时间。这是通过一个称为量化的过程来实现的,这个过程减少了 LLM 模型尺寸和内存需求可以加快处理速度,有助于降低成本和能耗。
Mixtral-8x7B 扩大了加入 IBM 随时随地满足客户需求的开放多模型战略,为他们提供选择和灵活性,使他们能够跨业务拓展企业级人工智能解决方案。通过几十年的人工智能研发 Meta 和 Hugging Face 开放合作,与模型领导者的合作伙伴关系,IBM 正在扩展其 watsonx.ai 引入新的功能、语言和模式进行模型目录。
IBM 企业就绪基本模型的选择及其 watsonx 人工智能和数据平台可以帮助客户利用生成人工智能获得新的洞察力和效率,并根据信任原则创建新的商业模式。IBM 根据业务领域(如金融)的适当用例和性价比目标,帮助客户选择合适的模型。
Mixtral-8x7B 结合稀疏建模与专家混合技术,"稀疏建模"创新技术只是搜索和使用数据中最重要的部分,以创建更高效的模型;"34专家混合技术;不同的模型擅长并解决不同部分的问题("专家")技术结合在一起。Mixtral-8x7B 该模型广为人知,因为它能够快速处理和分析海量数据,以提供与上下文相关的见解。
IBM 软件公司产品管理与增长高级副总裁 Kareem Yusuf 医生说:"在部署最适合其独特用例和业务要求的模型时,客户需要有选择权和灵活性。通过在watsonx上提供Mixtral-8x7B和其他模型,我们不仅为客户提供了部署人工智能的选择,而且为人工智能建设者和业务领导者提供了一个强大的生态系统,使他们能够利用工具和技术促进不同行业和领域的创新。"
同一周,IBM还宣布在watsonx上提供ELYZA公司开源的日本LLM模型ELYZA-japanese-Llama-2-7b。IBM 还在 watsonx 上提供 Meta 的开源模型 Llama-2-13B-chat 和 Llama-2-70B-chat 以及其他第三方模型,未来几个月将推出更多模型。
有关 IBM 未来方向和意图的声明如有变更或撤回,将不另行通知,只代表目标和目的。
关于IBM
IBM 它是世界领先的混合云、人工智能和企业服务提供商,帮助超越 175 来自国家和地区的客户从数据中获得商业洞察力,简化业务流程,降低成本,获得行业竞争优势。金融服务、电信、医疗卫生等关键基础设施领域超过 4000 家政府和企业实体依靠家政府和企业实体 IBM 和。混合云平台 Red Hat OpenShift 实现数字化转型的快速、高效、安全。IBM 在人工智能、量子计算、行业云解决方案和企业服务方面的突破性创新为客户提供了开放和灵活的选择。长期承诺企业诚信、透明治理、社会责任、包容性文化和服务精神 IBM 业务发展的基石。了解更多信息,请访问:https://www.ibm.com/cn-zh
稿源:美通社
查看全文
作者最近更新
-
震动传感器:你家设备的“听诊器”科技八卦
09-25 01:31 -
选对传感器,就像选对钥匙开对门科技八卦
09-25 02:02 -
地磁传感器:你手机里的“指南针”如何悄悄改变生活科技八卦
09-26 00:06



评论0条评论