OpenManu使用教程

2025-3-21版本,现在迭代很快的,大家及时跟新最新版

一、项目核心特点
OpenManus 是由 MetaGPT 团队开发的智能体开发框架,具备以下特性:

  • 快速原型搭建:3 小时完成智能体基础开发
  • 工具调用支持:必须选择支持 Function Calling 的模型
  • 持续迭代升级:即将推出基于强化学习的优化版本(OpenManus-RL)

二、环境搭建全流程

  1. 必备工具安装
  • 代码编辑器:下载 VSCode(官网:https://code.visualstudio.com/)
  • 环境管理工具:安装 Miniconda(Windows 用户直接运行:https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe)
  1. 获取项目代码(三选一)
    方案一:终端执行加速克隆命令
    git clone https://gh.llkk.cc/https://github.com/mannaandpoem/OpenManus
    方案二:下载国内镜像压缩包
    访问 https://gh.llkk.cc/https://github.com/mannaandpoem/OpenManus/archive/refs/heads/main.zip
    方案三:官方仓库直接下载 ZIP
  2. 配置 Python 环境
    打开 Miniconda Prompt 执行:
    conda create -n open-manus python=3.12 # 创建专用环境
    conda activate open-manus # 激活环境
    cd OpenManus # 进入项目目录
  3. 依赖安装步骤
    设置清华镜像加速:
    pip config set global.index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple
    安装核心依赖(如失败切换腾讯源):
    pip install -r requirements.txt
    可选浏览器组件:
    playwright install

三、模型配置关键说明

配置文件路径:项目目录/config/config.toml

Ollama 配置示例(注意127.0.0.1不要换成localhost):

[llm] #OLLAMA:
api_type = ‘ollama’
model = “qwen2.5-coder:7b”
base_url = “http://127.0.0.1:11434/v1”
api_key = “ollama”
max_tokens = 4096
temperature = 0.0

[llm.vision] #OLLAMA VISION:
api_type = ‘ollama’
model = “qwen2.5-coder:7b”
base_url = “http://127.0.0.1:11434/v1”
api_key = “ollama”
max_tokens = 4096
temperature = 0.0

重点注意:

  1. API 密钥获取后需完整替换(保留引号)
  2. 模型必须支持 tools 调用功能
  3. 不同平台的同名模型可能存在功能差异

四、启动与使用

基础启动命令:
python main.py
成功运行后会显示交互提示:

进阶功能启动:

  • 工具演示版:python run_mcp.py
  • 多智能体测试版:python run_flow.py(需多模型配置)

大家有条件就直接用Key,当然本地部署比如Ollama也行,但是如果本地显卡不好的话,这个就容易出很多问题。

可以使用GPT要魔法。

DeepSeek目前只支持 deepseek-chat 模型

硅基流动

官方网站:https://cloud.siliconflow.cn,

可以通过下面我的邀请码获取2000万token,免费使用,一起白嫖

https://cloud.siliconflow.com/i/OEjSMlfq

配置如下:

# Global LLM configuration
[llm]
model = "Qwen/QwQ-32B"
base_url = "https://api.siliconflow.cn/v1"
api_key = "sk-..."
max_tokens = 8192   
temperature = 0.0

# Optional configuration for specific LLM models
[llm.vision]
model = "claude-3-5-sonnet"
base_url = "https://api.openai.com/v1"
api_key = "sk-..."

别的也都差不多,都是换个model和url以及api_key就行。


已发布

分类

来自

标签:

评论

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注