infiAgent 也称为 MLA (Multi-Level Agent,多层级智能体) 是一个专为无限时长运行设计的智能体框架,不会因为任务资源累积和对话历史增长而导致工具调用混乱或系统崩溃。使用 MLA,你只需编写配置文件即可构建强大的通用或半专业化智能体。
- ✅ 支持数以天计的持续复杂任务:无需担心上下文累积或持续压缩导致的性能下降。任何中断(崩溃、网络异常、手动停止)都可通过 Resume 完全恢复,实现真正的断点续跑。
- ✅ 支持 Agent Skills 标准:兼容 Agent Skills 开放标准。将 skill 文件夹放入技能库,智能体即可自动发现、加载并按需执行。
- ✅ 灵活的智能体架构:同时支持多层级架构(树形编排,适合垂类复杂任务——如
Researcher配置可长时间进行科学研究并生成论文)和扁平架构(单层智能体 + Skills,适合广泛通用任务——如 OpenCowork 配置)。 - ✅ 持续记忆:基于文件目录位置的记忆系统。在同一工作目录下启动智能体,即可记忆该目录下所有历史任务的对话和产出,无需外部数据库。
如果你在最新更新日期前拉取镜像或者代码,请参考修复的问题,重新拉取镜像和代码。
-
[2026/03/31] Thinking / ReAct 模式可切换,并引入历史任务数据库检索: 运行时现在支持两种节奏。你既可以保留原来的 ThinkingAgent 式“先思考,再执行 N 步”的长程模式,也可以关闭 thinking,切换到显式 ReAct 模式,让反思文本直接进入消息历史。与此同时,历史任务会被索引进本地 SQLite 数据库,所有 agent 默认都会挂载
task_history_search工具。SDK 还支持只把最近 N 条历史任务注入 prompt;如果这些最近历史不足以完成当前任务,agent 会被明确提示去历史任务数据库里检索旧任务。 -
[2026/03/30] SDK / mac / Web UI 模型配置对小白更友好: SDK 现在支持直接传结构化模型配置,不再要求每个集成都手写
llm_config.yaml。mac 客户端和 Docker Web UI 现在都提供了基于 source 的模型编辑器:先配置默认base_url/api_key,再按共享模型或各功能分区添加多个模型条目;每个条目都可以继续复用默认 source,也可以切到自定义 URL / Key。Raw YAML / JSON 仍然保留给高级用户,但普通用户已经不需要再手动写前缀或 JSON 模型对象。 -
[2026/03/23] Docker Web UI 现已支持多用户注册与用户管理: 最新
chenglinhku/mlav3:latest镜像会通过新的webui启动命令直接运行基于 SDK 的 Web UI,默认使用4242端口。用户可以在登录页自行注册,初始管理员账号可在 Web UI 内管理用户。请按 Quick Start 和docs/DOCKER_GUIDE.md中更新后的 Docker 命令启动:挂载~/.mla_v3到/root/mla_v3,映射4242,并使用chenglinhku/mlav3:latest webui。旧版基于9641的独立配置页面流程已不再需要。 -
[2026/03/19] 基于
infiagentSDK 推出 CheapClaw: CheapClaw 现在作为基于 SDK 的应用层发布,在保留 OpenCowork 大部分实用能力的基础上,支持自定义 bot、多 bot 协作、对接各种 IM 软件以及 Skills,同时完整继承infiagent的能力模型:单个 bot 背后可挂多智能体系统、支持低成本长程任务,并在单个 bot 内实现按 task 隔离上下文。同一个 bot 下,不同 task 的历史上下文彼此隔离,而同一个 task 会持续复用同一份长程上下文,而不是共享单一 bot session。点击这里查看 CheapClaw。 -
[2026/03/19] 子智能体模型配置更加细粒度: 现在单个子智能体可以独立配置
execution_model、thinking_model、compressor_model、image_generation_model和read_figure_model,从而在单个 agent loop 中把执行、思考、压缩以及多模态/读图工作拆分给不同模型,在应用层层面上最细粒度地控制成本。与此同时,可以在llm_config.example.yaml中为每个模型配置tool_choice选项。可参考默认OpenCowork配置中 Level 3 的alpha_agent写法。 -
[2026/03/08] 桌面端分支同步更新: 当前
desktop-app分支已经加入打包 Python 后端构建脚本、内置infiagentPython SDK、可配置运行时节奏(action_window_steps、thinking_interval、定时/手动fresh)、MCP 运行时接入、单任务日志、桌面端环境设置和 marketplace 集成。旧的独立tool-server工作流已被进程内direct-tools替代,内置科研系统名称也统一为Researcher。
- [2026/02/09] mac系统桌面端发布! 点击此处跳转下载页面。支持 skills的外部库导入,支持不同智能体共享记忆接力工作,支持本地模型完全本地化运行。
-
[2026/02/07] 支持 Agent Skills! InfiAgent 现已支持 Agent Skills 开放标准。Skills 是包含指令、脚本和资源的文件夹,智能体可按需加载以增强专业任务能力。Docker 用户:将 skill 文件夹放入
~/.mla_v3/skills_library/(挂载到容器内/root/mla_v3/skills_library/)。本地开发者:放入~/mla_v3/skills_library/。Windows 用户:%USERPROFILE%\mla_v3\skills_library\。智能体会自动发现可用 skills 并通过load_skill工具按需部署到工作空间。 -
[2026/02/07] 支持多供应商模型! 同一配置文件中可以使用来自不同供应商的模型。每个模型可单独覆盖
api_key和base_url,允许不同子智能体使用不同模型。详见llm_config.example.yaml配置示例。 -
[2026/02/07] Web UI 增强: 新增 Resume 按钮,支持恢复中断任务(与 CLI
/resume功能一致)。新增 Agent System 选择器,可自由切换Researcher(学术研究智能体)和 Open Cowork 系统。用户输入自动添加时间戳(与 CLI 行为一致)。 -
[2026/02/07] 多模态消息架构重构: 分离多模态和纯文本模型的消息逻辑。多模态模型下,
image_read工具获取的图片直接嵌入对话上下文,实现原生图片理解。纯文本模型仍保留外部 Vision 工具的图片识别能力。通过llm_config.yaml中的multimodal和compressor_multimodal配置。 -
[2026/01/17] 我们推出新的配置文件open cowork,得到类似anthropic 公司 cowork 工具的电脑工作助手。在进入你指定的文件夹后,实现包括但不限于帮你整理文件夹,制作 ppt,整理各种格式的账单发票,深度调研,编写项目代码等。仍然基于 infiagent 架构的长程性能,和相同文件夹下的无限记忆。支持 CLI、Docker CLI 和 Web UI 模式。在 Web UI 中可通过 Agent System 选择器切换
Researcher和 OpenCowork。具体可查看演示视频。
Open Cowork 演示视频:
-
[2026/01/13] cli模式下新增api欠费网络中断等意外情况的断点续跑功能。(原先手动中断/续跑功能保留)。统一/resume唤起。
-
[2026/01/08] 我们的论文 "InfiAgent: An Infinite-Horizon Framework for General-Purpose Autonomous Agents" 发布
-
[2026/01/07] Web UI: 临时修复“处理事件异常: 'int' object has no attribute 'get'”。不会影响后续 agent输出和工作,但仍然会显示报错,等待后续完全修复。
-
[2026/01/06] Web UI:新增入口智能体选择功能,可在 Task ID 左侧选择作为对话入口的智能体,并在同一界面展示该智能体为根的 agent tree。
-
[2026/01/05] 解决网络死锁问题(首token 卡死) !重要更新!建议更新最新镜像或者拉取代码!
-
[2026/01/04] 支持智能体基于用户回复输出不同交互语言,
-
[2026/01/03] 优化 litellm 原生重试机制,通过提醒调用错误增加小模型调用成功率;增加链接超时检测机制,减少任务中断可能性。
-
[2026/01/02] 上传了视频教程,点击:infiagent:全自动写作工具
-
[2026/01/02] 修复了文献管理工具的部分 bug,请更新最新代码或者拉取最近镜像 chenglinhku/mlav3
-
[2026/01/01] 现已支持web ui多用户模式。拉取最新镜像网chenglinhku/mlav3进行体验,webui目前属测试阶段存在不稳定因素,最新镜像同时接收cli模式,详见quickstart教程
-
[2026/01/01] 现已支持阿里云api包括qwen,适配绝大部分第三方中转站。配置详情请卡config文件夹对应的参考文件。
-
[2025/12/31] 现在已支持 gemini api。重新拉取仓库或重新拉取 docker 即可生效。配置文件参考配置文件夹 gemini 开头的样板格式。
注意目前只支持 python 编程,早期版本execute_command只支持只读命令,目前已经支持所有命令(包括删除等危险命令),推荐在 docker 环境下使用。
MLA完成的完整论文
Demo 1:
为了控制仓库体积,演示动图已不再放入 git 历史。
Demo 2:
Demo 3:
MLA 处理整个研究工作流程——从文献搜索和实验设计到代码执行、图表生成和 LaTeX 论文撰写。全部通过多层级智能体自动编排完成。 演示视频和大体积 GIF 现已移出 git 历史,以便更轻量地克隆仓库。
1. 安装 Docker
- Mac/Windows: Docker Desktop
- Linux:
curl -fsSL https://get.docker.com | sh
2. 拉取镜像
docker pull chenglinhku/mlav3:latest3. 选择模式
当前 Docker 镜像会直接启动基于 SDK 的 Web UI。可通过 Agent System 选择器切换 Researcher 和 OpenCowork。旧版 9641 独立配置页面已不再需要。
cd /你的工作空间
mkdir -p ~/.mla_v3
docker run -d --name mla-webui \
-e HOST_PWD=$(pwd) \
-e PORT=4242 \
-v $(pwd):/workspace$(pwd) \
-v ~/.mla_v3:/root/mla_v3 \
-p 4242:4242 \
chenglinhku/mlav3:latest webui然后打开浏览器:http://localhost:4242
- 首次使用空 volume 时,默认管理员账号为
admin/admin123 - 也可以直接在登录页注册新用户
- 登录后点击 Web UI 里的
Config按钮即可编辑llm_config.yaml、app_config.json和 agent 配置 - 查看日志:
docker logs -f mla-webui
如果你希望 Docker 运行数据放在当前项目目录,而不是 ~/.mla_v3,可以把运行时挂载改成:
mkdir -p .mla_v3_docker
# 把: -v ~/.mla_v3:/root/mla_v3
# 改成: -v $(pwd)/.mla_v3_docker:/root/mla_v3cd /你的工作空间
mkdir -p ~/.mla_v3
docker run -it --rm \
-e HOST_PWD=$(pwd) \
-v $(pwd):/workspace$(pwd) \
-v ~/.mla_v3:/root/mla_v3 \
chenglinhku/mlav3:latest cliWindows 用户:
Windows 用户可以把任意工作目录挂到 /workspace/<你的任务根目录>,并持续复用同一个 /root/mla_v3 运行时目录。
如有 bug 欢迎提交 issue。
# CLI 模式 (PowerShell)
docker run -it --rm `
-e HOST_PWD="/docker_web" `
-v "${PWD}:/workspace/docker_web" `
-v "${HOME}\.mla_v3:/root/mla_v3" `
chenglinhku/mlav3:latest cli
# Web UI 模式 (PowerShell)
docker run -d --name mla-webui `
-e HOST_PWD="/docker_web" `
-e PORT=4242 `
-v "${PWD}:/workspace/docker_web" `
-v "${HOME}\.mla_v3:/root/mla_v3" `
-p 4242:4242 `
chenglinhku/mlav3:latest webui
# 然后打开浏览器:http://localhost:4242
# 查看日志:docker logs -f mla-webui4. 配置 API Key
打开浏览器:http://localhost:4242
登录后打开 Config 对话框,编辑 llm_config.yaml,填入 API key 并保存。
🎉 完成! 开始使用 MLA CLI。
1. 安装包
# 支持 Python 3.9+。如果需要使用打包依赖中的 MCP 能力,建议使用 Python 3.10+。
cd 安装路径
python -m venv venv
source venv/bin/activate # Windows: venv\Scripts\activate
git clone https://github.com/ChenglinPoly/infiAgent.git
cd infiAgent
pip install -e .2. 安装 Playwright
playwright install chromium3. 配置 API Key
mla-agent --config-set api_key "your-api-key"4. 启动 CLI
cd /你的工作空间
mla-agent --cli📖 CLI 完整指南
MLA 的设计理念是**"为下一步提供简短但高价值的上下文"**。为实现这一理念,框架实现了多项创新:
MLA 在树形层级结构中部署智能体(例如,祖父 → 父亲 → 儿子)。这确保了:
- ✅ 单一目的智能体:每个智能体都有专注的角色
- ✅ 最小工具集:智能体仅访问必要的工具
- ✅ 任务对齐:串行执行防止并行冲突
- ✅ 明确委派:父智能体编排子智能体
示例层级:
alpha_agent(Level 3)
├── data_collection_agent(Level 2)
│ └── web_search_agent(Level 1)
├── coder_agent(Level 2)
└── material_to_document_agent(Level 2)
长文档(PDF、小说、论文)永远不会直接加载到上下文中。相反:
- ✅ 使用
answer_from_pdf、answer_from_document工具 - ✅ 查询驱动的内容提取
- ✅ 仅相关摘录或摘要进入上下文
- ✅ 应用层通过工具进行注意力分配
传统方法:
加载整个 50 页 PDF → 智能体处理所有内容 → Token 溢出
MLA 方法:
智能体问:"方法是什么?"
→ 工具提取相关部分(2 页)
→ 返回简洁答案 → 最小 token 使用
"文件即一切。" 所有输出和交互都保存到文件系统:
- ✅ 网页抓取 → 保存为 Markdown 文件
- ✅ PDF 解析 → 提取到结构化文档
- ✅ 子智能体结果 → 存储为文件
- ✅ 无即时返回使上下文混乱
优势:
- 清晰的审计跟踪
- 可重用的工件
- 无上下文状态表示
一个关键洞察:当前文件系统状态代表了所有历史操作的效果。
- ✅ 一个独立的 thinking 模块每 30 步更新一次文件空间状态
- ✅ 智能体仅保留最近 10 个操作(自上次状态更新以来)
- ✅ 无需上下文压缩
- ✅ 历史操作反映在文件系统中,而非对话历史
传统 LLM 智能体:
步骤 1:创建文件 A
步骤 2:编辑文件 B
...
步骤 100:上下文溢出 → 需要压缩 → 信息丢失
MLA 方法:
步骤 1-10:记录操作
步骤 10:Thinking 模块更新"当前状态:文件 A、B、C 存在,包含..."
步骤 11-20:仅保留这些 + 当前状态
→ 无压缩,无信息丢失
受 Claude Code 启发,MLA 使用基于列表的工具参数来节省 token:
- ✅ 一次调用读取多个文件
- ✅ 批量操作减少累积 token 消耗
- ✅ 重复操作显著节省 token
示例:
# 传统:3 次单独调用
file_read(path="file1.txt")
file_read(path="file2.txt")
file_read(path="file3.txt")
# MLA:1 次批量调用
file_read(paths=["file1.txt", "file2.txt", "file3.txt"])- ✅ 任务 ID = 工作空间绝对路径(用户不可配置)
- ✅ 同一任务 ID 下允许无限对话会话
- ✅ 智能体具有工作空间中所有历史任务的记忆
- ✅ 跨中断和重启的持久记忆
使用:
# 第一次会话
mla-agent --task_id ~/research --user_input "收集有关 Transformer 的论文"
# → 将对话存储在 ~/mla_v3/conversations/{hash}_research_*
# 第二次会话(几天后)
mla-agent --task_id ~/research --user_input "总结已收集的论文"
# → 智能体记住前一次会话并访问收集的文件hierarchy_manager 维护动态调用关系图:
- ✅ 跟踪父子智能体关系
- ✅ 将调用图注入共享上下文
- ✅ 防止智能体越界
- ✅ 在多智能体系统中保持任务对齐
调用图示例:
{
"current_agent": "coder_agent",
"parent": "alpha_agent",
"siblings": ["data_collection_agent", "material_to_document_agent"],
"allowed_tools": ["python_run", "file_write", "file_read"]
}这确保 coder_agent 不会意外调用 web_search(不在其范围内)或干扰兄弟智能体。
MLA 提供了功能丰富的交互式 CLI,支持实时任务监控、HIL 处理和智能体切换:
系统选择:
工具模式配置:
启动任务:
基于 prompt_toolkit 和 rich 的交互式 CLI - 支持多轮对话、自动 HIL 检测和工具执行确认。
使用 MLA 的 JSONL 模式构建强大的 IDE 扩展:
由 MLA 驱动的 VS Code 扩展 - 与工作空间上下文无缝集成,支持实时流式输出。
MLA 使用 YAML 文件进行智能体和工具配置。配置文件位于:
config/
├── agent_library/
│ ├── Researcher/ # 面向科研的多层级系统
│ │ ├── general_prompts.yaml # 共享提示词
│ │ ├── level_-1_judge_agent.yaml # 评判智能体
│ │ ├── level_0_tools.yaml # 工具定义
│ │ ├── level_1_agents.yaml # 底层智能体
│ │ ├── level_2_agents.yaml # 中层智能体
│ │ └── level_3_agents.yaml # 顶层智能体
│ └── OpenCowork/ # 通用电脑工作助手
└── run_env_config/
├── llm_config.yaml # LLM 设置
└── llm_config.example.yaml # 示例模板
api_key: "your-api-key"
base_url: "https://openrouter.ai/api/v1"
models:
- "openai/anthropic/claude-sonnet-4"
- "openai/anthropic/claude-haiku-4.5"
temperature: 0.7
max_tokens: 8000
figure_models:
- "google/gemini-2.0-flash-thinking-exp-01-21"注意:复制 llm_config.example.yaml 到 llm_config.yaml 开始使用。
MLA 将智能体组织成层级:
- Level 3:顶层编排者(如
alpha_agent) - Level 2:功能专家(如
data_collection_agent、coder_agent) - Level 1:基础执行者(如
web_search_agent) - Level 0:工具定义
- Level -1:质量控制(如
judge_agent)
编辑 YAML 文件以自定义智能体行为:
alpha_agent:
type: llm_call_agent
level: 3
model_type: "advanced"
available_tools:
- data_collection_agent
- coder_agent
- data_to_figures_agent
- material_to_document_agent
- judge_agent
- final_output
system_prompt: |
你是一个研究助手...启动 CLI 进行对话式体验:
mla-agent --cli主要功能:
- 🔄 多轮对话,持久化上下文
- 🤖 智能体切换,使用
@agent_name语法 - 🔔 自动 HIL 检测,带音频提醒
⚠️ 工具执行确认,手动模式下- ⏸️ 中断和恢复支持(Ctrl+C 暂停)
- 🎨 丰富的终端 UI,基于
prompt_toolkit和rich
使用示例:
# 直接输入任务(使用默认智能体)
[alpha_agent] > 收集有关 Transformer 的论文
# 切换智能体并执行任务
[alpha_agent] > @data_collection_agent 搜索最近的 NLP 论文
# 仅切换默认智能体
[alpha_agent] > @coder_agent
✅ 已切换到:coder_agent
[coder_agent] > CLI 命令:
| 命令 | 描述 |
|---|---|
/help |
显示帮助和可用命令 |
/agents |
列出所有可用智能体 |
/resume |
恢复中断的任务 |
/quit 或 /exit |
退出 CLI 模式 |
Ctrl+C |
中断当前任务(保持在 CLI 中) |
Ctrl+D |
立即退出 CLI |
人机交互(HIL)处理:
当智能体请求人工输入时,CLI 会自动检测:
🔔🔔🔔 检测到 HIL 任务!按回车处理... 🔔🔔🔔
================================================================================
🔔 人类交互任务(HIL)
================================================================================
📝 任务 ID:upload_file_20250124
📋 指令:请上传所需的数据集文件...
================================================================================
💡 输入你的响应(任何文本)
输入 /skip 跳过此任务
================================================================================
[alpha_agent] HIL 响应 > 文件已成功上传
✅ HIL 任务已响应
工具确认(手动模式):
当设置 --auto-mode false 时,每次工具执行都需要确认:
⚠️⚠️⚠️ 检测到工具执行请求!按回车确认... ⚠️⚠️⚠️
================================================================================
⚠️ 工具执行确认请求
================================================================================
🔧 工具名称:python_run
📝 确认 ID:confirm_12345
📋 参数:
code: import numpy as np...
timeout: 300
================================================================================
💡 选择操作:
yes / y - 批准执行
no / n - 拒绝执行
================================================================================
[alpha_agent] 确认 [yes/no] > yes
✅ 已批准执行工具:python_run
用于脚本和自动化:
mla-agent \
--task_id /path/to/workspace \
--user_input "你的任务描述" \
--agent_name alpha_agent常用参数:
| 参数 | 描述 | 默认值 |
|---|---|---|
--task_id |
工作空间路径(绝对路径) | 必需 |
--user_input |
任务描述 | 必需 |
--agent_name |
调用的智能体 | alpha_agent |
--agent_system |
智能体库名称 | Researcher |
--cli |
交互式 CLI 模式 | false |
--jsonl |
JSONL 输出模式 | false |
--force-new |
清空所有状态并重新开始 | false |
--auto-mode |
工具执行模式(true/false) |
自动检测 |
自动模式示例:
# 自动执行工具(无需确认)
mla-agent --task_id ~/project --user_input "任务" --auto-mode true
# 每个工具需手动确认
mla-agent --task_id ~/project --user_input "任务" --auto-mode false# 工具通过进程内 direct-tools 执行
# 不再需要单独启动 mla-tool-server 进程MLA 提供两种 SDK 选项:Python SDK 用于直接集成,JSONL 模式用于 IDE 插件。
当前推荐直接使用内置的 infiagent SDK。现在的 SDK 语义是:
infiagent(...)负责描述运行时默认配置run(...)、fresh(...)、add_message(...)等方法负责绑定具体task_id- 可以通过
user_data_root切换整套运行时目录
最小示例:
from infiagent import infiagent
agent = infiagent(
user_data_root="/abs/path/to/my_root",
default_agent_system="Researcher",
default_agent_name="alpha_agent",
action_window_steps=30,
thinking_interval=30,
max_turns=100000,
fresh_enabled=True,
fresh_interval_sec=300,
)
result = agent.run(
"写一篇关于 Transformer 的综述论文",
task_id="/abs/path/to/tasks/transformer_survey",
)
print(f"状态:{result['status']}")
print(f"输出:{result['output']}")如果你的 user_data_root 已经包含:
config/llm_config.yamlconfig/app_config.jsonagent_library/...tools_library/...
通常不需要再重复传入 llm_config_path、agent_library_dir、tools_dir。
常用任务接口:
# 对运行中或已停止的 task 发起 fresh / resume。
agent.fresh(
task_id="/abs/path/to/tasks/transformer_survey",
reason="reload runtime config",
)
# 向同一个 task(不是 task_id正在运行中的智能体) 追加新指令。
agent.add_message(
"保留已有大纲,只修改第三节。",
task_id="/abs/path/to/tasks/transformer_survey",
source="user",
resume_if_needed=True,
)
# 启动新的后台 Python 进程执行另一个 task。(可以是相同 task_id,将获得此 id下之前 task的所有记忆)
agent.start_background_task(
task_id="/abs/path/to/tasks/subtask_eval",
user_input="后台运行评测流程并总结结果",
force_new=True,
)
# 获取 task 快照,适合面板和轻量 watchdog。
snapshot = agent.task_snapshot(
task_id="/abs/path/to/tasks/transformer_survey",
)
# 重置损坏的 task 状态,可选保留 history。
agent.reset_task(
task_id="/abs/path/to/tasks/transformer_survey",
reason="clear broken loop",
preserve_history=True,
)运行时自省:
runtime = agent.describe_runtime()
print(runtime["user_data_root"])
print(runtime["agent_library_dir"])
print(runtime["tools_dir"])
systems = agent.list_agent_systems()
print(systems["systems"])SDK 目前支持的高级能力:
- 基于
task_id的后台启动、resume 和 fresh - 基于
user_data_root的 conversations、logs、runtime、config 隔离 - 工具调用前后 hook
- LLM 调用前的 context hook,可读取并改写最终 prompt
- 通过
mcp_servers=[...]为实例注入 MCP 运行时配置
完整说明见:docs/SDK_GUIDE.md
Python SDK 使用场景:
- 🔧 构建自定义工作流
- 🤖 在现有应用中嵌入智能体
- 📊 批量处理多个任务
- 🧭 构建外部面板、watchdog 和调度层
- 🔬 程序化控制的研究实验
MLA 提供 JSONL 流式模式,用于与 IDE 和编辑器实时集成:
mla-agent \
--task_id $(pwd) \
--user_input "优化代码性能" \
--jsonl 2>/dev/null输出格式:
{"type":"start","call_id":"c-1760936557-474c43","project":"~/project","agent":"alpha_agent","task":"优化..."}
{"type":"token","text":"[alpha_agent] 正在分析代码..."}
{"type":"progress","phase":"execution","pct":30}
{"type":"token","text":"调用工具:code_analyzer"}
{"type":"result","ok":true,"summary":"优化完成"}
{"type":"end","status":"ok","duration_ms":5432}事件类型:
| 事件类型 | 描述 | 关键字段 |
|---|---|---|
start |
任务开始 | call_id、agent、task |
token |
流式文本输出 | text |
progress |
进度更新 | phase、pct |
result |
任务结果 | ok、summary |
end |
任务完成 | status、duration_ms |
error |
发生错误 | message |
import { spawn } from 'child_process';
interface AgentEvent {
type: 'start' | 'token' | 'progress' | 'result' | 'end' | 'error';
[key: string]: any;
}
function runAgent(
workspacePath: string,
userInput: string,
onEvent: (event: AgentEvent) => void
): Promise<AgentEvent> {
return new Promise((resolve, reject) => {
const child = spawn('mla-agent', [
'--task_id', workspacePath,
'--user_input', userInput,
'--jsonl'
]);
let buffer = '';
child.stdout.on('data', (data) => {
buffer += data.toString();
const lines = buffer.split('\n');
buffer = lines.pop() || '';
lines.forEach(line => {
if (!line.trim()) return;
try {
const event: AgentEvent = JSON.parse(line);
onEvent(event);
if (event.type === 'end') {
resolve(event);
} else if (event.type === 'error') {
reject(new Error(event.message));
}
} catch (e) {
console.error('解析事件失败:', line);
}
});
});
child.stderr.on('data', (data) => {
// 将错误记录到 stderr
console.error(data.toString());
});
child.on('error', reject);
});
}
// 使用示例
await runAgent('/path/to/workspace', '编写单元测试', (event) => {
switch (event.type) {
case 'start':
console.log(`任务开始:${event.task}`);
break;
case 'token':
process.stdout.write(event.text);
break;
case 'progress':
updateProgressBar(event.pct);
break;
case 'result':
console.log(`\n结果:${event.summary}`);
break;
}
});使用 MLA 构建你自己的 Cursor/VS Code 扩展:
扩展功能:
- 🤖 命令面板中的智能体命令
- 💬 带工作空间上下文的内联聊天
- 📝 自动代码生成和重构
- 🔍 编辑器内文献搜索
- 🔔 带 UI 提示的 HIL 任务处理
基本扩展结构:
// extension.ts
import * as vscode from 'vscode';
import { runAgent } from './mla-client';
export function activate(context: vscode.ExtensionContext) {
let disposable = vscode.commands.registerCommand(
'mla.executeTask',
async () => {
const workspace = vscode.workspace.workspaceFolders?.[0].uri.fsPath;
const input = await vscode.window.showInputBox({
prompt: '输入任务描述'
});
if (!workspace || !input) return;
// 显示进度
await vscode.window.withProgress({
location: vscode.ProgressLocation.Notification,
title: 'MLA 智能体',
cancellable: true
}, async (progress, token) => {
await runAgent(workspace, input, (event) => {
if (event.type === 'token') {
vscode.window.showInformationMessage(event.text);
} else if (event.type === 'progress') {
progress.report({ increment: event.pct });
}
});
});
}
);
context.subscriptions.push(disposable);
}MLA 可以生成具有以下结构的完整研究论文:
upload/
├── paper.tex # 主 LaTeX 文档
├── references.bib # 参考文献
├── figures/
│ ├── architecture.png
│ ├── results_comparison.png
│ └── ablation_study.png
└── supplementary/
└── detailed_results.pdf
质量指标:
- ✅ 通过 EI/IEEE 会议的同行评审
- ✅ 正确的引用格式
- ✅ 高质量图表(300 DPI)
- ✅ 连贯的结构和流程
1. 科学计算
- ECM 蛋白质组成仿真
- 物流公司排班调度
- 学生作业批改与反馈
2. 通用任务
- 网页抓取和数据提取
- 代码生成和调试
- 文档转换和处理
欢迎贡献!请随时提交问题或拉取请求。
详见 LICENSE
如果您在研究中使用了 InfiAgent,请引用我们的论文:
@article{yu2026infiagent,
title={InfiAgent: An Infinite-Horizon Framework for General-Purpose Autonomous Agents},
author={Yu, Chenglin and Wang, Yuchen and Wang, Songmiao and Yang, Hongxia and Li, Ming},
journal={arXiv preprint arXiv:2601.03204},
year={2026}
}作者:@yuchenglin
感谢贡献者:@wangyuchen @wangsongmiao @yuyang @lijinjia
邮箱:yuchenglin96@qq.com/cl0415@connect.hku.hk/chenglin.yu@poly.edu.h
GitHub:MLA V3 仓库
使用 MLA V3 开始构建专属领域的 SOTA 智能体! 🚀










