IBM 最近宣布将在 watsonx.ai 托管 Meta 的 Llama 2-chat 700 亿参数模型,并向选择的客户和合作伙伴提供早期访问权限。
企业现在正在采用生成式人工智能的趋势来增强他们的业务战略。为了有效利用其潜力,他们需要简化的方法来训练和构建自己的 LLM,利用他们多年积累的数据。为了解决这个挑战,包括 AWS 和 Azure 在内的各种云服务提供商已加紧提供帮助。
OpenAI 与微软合作获得了 GPT-4,而 AWS 则通过多 LLM 方法给出了可以选择使用像 AI21、Cohere、Anthropic Claude 2和Stability AI SDXL 1.0 等多个模型选项。除了知名云服务外,最近还出现了其他几家服务提供商。
企业寻求可信赖且值得信赖的解决方案。最近,人工智能爱好者已经开发出一些方法来训练和构建 Llama 2 模型,但关键问题仍然是:这些方法是否可以可靠地处理数据?
几天前,AI 专家 Santiago 发推文称「您现在可以在不到 10 分钟内测试 Llama 2」,介绍了 Monster API 这个新工具,它可以轻松访问强大的生成式 AI 模型,如 Falcon、Llama、Stable Diffusion 和 GPT J 等,而无需担心管理这些生成式 AI 模型或扩展它们以处理大量请求。
然而,像这样的新举措对于已经建立起来的公司来说太冒险了,他们还没有证明自己能够扩展业务。
IBM 赢得了客户的信任
IBM 致力于在引入其生成式人工智能功能时优先考虑信任和安全性。例如,在用户使用 watsonx.ai 中的 Prompt lab 中使用 Llama 2 模型时,他们可以激活 AI 护栏功能。这有助于自动过滤输入提示文本和模型生成输出中的有害语言。
IBM 印度及南亚技术首席技术官兼技术销售负责人 Geeta Gurnani 表示,IBM 正在推出一款预计今年晚些时候将正式发布的 AI 治理工具包,该工具包将帮助实施治理以减轻与手动流程相关联的风险、时间和成本,并提供驱动透明可解释结果所需的文档。
她说:「它还将具备保护客户隐私、主动检测模型偏见和漂移,并帮助组织满足其道德标准的机制。」
为什么选择 Llama 2 而不是 GPT-4
Llama 2 在企业中受到了欢迎。这可以通过它在 Amazon Sagemaker、Databricks、Watsonx.ai 甚至是微软 Azure 上都可用来作为专有 LLM GPT-4 的基础来证明。
此外,Meta 与亚马逊、Hugging Face、英伟达、高通、Zoom 和 Dropbox 等多家知名公司以及学术领导者之间的合作伙伴关系强调了开源软件的重要性。
即使是深度学习领域的著名人物 Karpathy 也无法抵挡使用 Llama 2 的诱惑,他创建了 Baby Llama(又称 llama.c),他一直在探索在一台计算机上运行大型语言模型 (LLM) 的概念。此外,他甚至暗示 OpenAI 可能会在不久的将来发布开源模型。
同样,AI 专家 Santiago 表示,Llama 2 具备潜在成功的所有要素:开源、拥有商业许可、成本效益高的 GPU 使用以及对整个利用过程的全面控制。
他表示:「我和两家初创公司交流过,它们正在从专有模型转向 Llama 2。还会有多少公司放弃商业替代品而选择 Llama 2 呢?」
GPT-4 只能通过微软 Azure OpenAI 服务进行访问,但企业也可以购买 OpenAI 提供的 GPT-4 API。然而,GPT-4 的限制在于其闭源性质,用户无法创建自己的模型或尝试修改其代码。与免费商用的 Llama 2 不同,GPT-4 API 是需要付费使用的。收费按照每 1000 个 tokens 计算,输入为 0.03 美元,输出为 0.06 美元。
根据 AIM Research 数据,在稍微复杂一些的应用场景中,一个月使用 GPT-4 API 进行推理可能需要花费 25 万到 30 万美元(16K 上下文长度)。因此,在使用 ChatGPT API 时必须注意标记使用情况并有效管理以控制成本。
最初观察到这一季度公司倾向于 Azure 来获取独占权访问 GPT-4,并进而提升了 Azure 云的收入。然而,当微软与 Meta 合作托管 Llama 2 时,情况发生了有趣的变化。这凸显出开源 LLM 具有独特优势,不容忽视。
评论列表 (条)