UStackUStack
Arcee AI icon

Arcee AI

Arcee AI 是美国开放情报实验室,致力于加速开放权重前沿模型发布与真实基准评测,并提供面向代理与部署的指导。

Arcee AI

Arcee AI 是什么?

Arcee AI 是一家总部位于美国的开放情报实验室,专注于加速美国开放权重模型的竞争格局。该实验室强调以开放权重形式发布前沿模型工作,并将发布与真实基准评测配对,而不是依赖未公开的声明。

Arcee AI 描述了一种方法,即在短时间内发布多个模型,同时进行持续工作,针对模型性能和实际部署模式。

主要特性

  • 开放权重前沿模型发布:Arcee AI 表示其提供“全开放权重”模型,针对需要直接运行和评估模型的团队。
  • 基准评测发布:发布附带“真实基准”,表明模型性能由可衡量评估支持。
  • 在线 RL 用于持续学习:网站将“Online RL”描述为持续学习——部署可以通过快速迭代随时间改进。
  • 注重成本的扩展:Arcee AI 表示其架构设计旨在保持低成本,同时针对前沿性能。
  • 面向代理的开放许可模型工作:网站提到 Trinity-Large-ThinkingApache 2.0 许可发布,用于复杂长时程代理和多轮工具调用。

如何使用 Arcee AI

  1. 从适合您需求的 Trinity 模型发布开始(网站提及 Trinity-Large-Thinking 和一组 Trinity 检查点)。
  2. 遵循提供的代理设置指南。例如,Arcee AI 提供使用由 Trinity-Large-Thinking 驱动的 Hermes Agent 的教程,包括安装、工具配置和启动。
  3. 如果构建支持持续更新的系统,请计划迭代改进。网站的“Online RL”框架针对可通过快速迭代持续改进的部署。

使用场景

  • 长时程代理工作流:使用 Trinity-Large-Thinking 进行多轮工具调用,在单步响应不足的情况下(例如,需要多个规划和执行阶段的任务)。
  • 使用工具的 AI 助手:遵循 Hermes Agent 指南配置工具并启动可在多轮调用工具的助手。
  • 使用基准进行模型评估和选择:选择开放权重模型的团队可以使用 Arcee AI 描述的“真实基准”强调来比较发布。
  • 持续改进管道:构建支持持续学习系统的组织可以将部署方法与 Arcee AI 的“Online RL”概念对齐。
  • 注重成本的部署规划:希望在控制计算成本的同时获得竞争性能的开发者可以审视网站所述通过架构选择保持低成本的方法。

常见问题

Arcee AI 的“开放情报实验室”是什么意思?
网站将 Arcee AI 定位为一家总部位于美国的实验室,专注于开放权重模型发布和透明评估,强调基准评测。

Arcee AI 的模型是否以开放权重形式提供?
Arcee AI 表示其前沿模型发布均为“全开放权重”。

Trinity-Large-Thinking 用于什么?
网站将 Trinity-Large-Thinking 描述为面向复杂长时程代理和多轮工具调用的前沿开放推理模型。

Trinity-Large-Thinking 是否以开放许可发布?
是的——Arcee AI 表示 Trinity-Large-Thinking 以 Apache 2.0 许可发布。

在哪里可以找到使用这些模型运行代理的说明?
Arcee AI 提供由 Trinity-Large-Thinking 驱动的 Hermes Agent 设置指南,包括安装、工具配置和启动。

替代方案

  • 开放权重模型提供商(通用):与其专注于 Arcee AI 特定的 Trinity/Hermes 工作流,您可以评估其他同样发布可直接使用和基准评测的开放权重模型生态系统。差异:许可条款、发布节奏和模型架构可能不同。
  • 闭源权重 API 代理平台:如果您的优先级是更快集成而非开放权重,则 API 优先的代理平台可作为替代。差异:您通常会失去与开放权重发布相关的控制/可见性。
  • 自托管开源 LLM + 工具调用框架:您可以通过将开放模型与工具调用/代理框架组合来组装代理系统。差异:您需要自行管理更多集成和评估工作流,而不是使用 Arcee AI 的发布和指南。