部署指南

快速开始

准备好 Docker、Python 和一个 LLM API Key,几分钟内把 AgentFleet 跑起来。

前置条件

前置条件

  • 01Docker
  • 02Python 3.9+
  • 03至少一个 LLM API Key,推荐先用免费的 Gemini
三步部署

三步部署

步骤 1

拉取仓库

把项目克隆到本地并进入目录。

git clone https://github.com/DBell-workshop/AgentFleet.git && cd AgentFleet
步骤 2

创建环境文件

复制示例配置,然后填入你的 API Key。

cp .env.example .env  # 填入你的 API Key
步骤 3

启动服务栈

拉起容器后,在浏览器打开本地工作台。

docker compose up -d  # 打开 http://localhost:8001
部署成功后localhost:8001
本地运行中的 AgentFleet 工作区。

启动完成后,你会看到这个可视化 AI 团队。

本地服务正常运行时,界面效果会与下方演示一致。