在 VS Code 中使用 ‌oMLX‌ 本地模型,主要依赖于 oMLX 提供的 ‌OpenAI / Anthropic 兼容 API 接口‌,通过配置 VS Code 的 AI 插件(如 Continue、Copilot Chat 等)连接到 oMLX 本地服务。


✅ 核心步骤

  • oMLX 仅支持 macOS + Apple Silicon(M1/M2/M3/M4/M5)‌,不支持 Windows 或 NVIDIA 显卡 ‌。
  • oMLX 启动后默认提供以下 API 接口:
    • OpenAI 兼容:http://localhost:8000/v1
    • Anthropic 兼容:http://localhost:8000

🛠️ 在 VS Code 中配置 oMLX 的方法

一:使用 ‌Continue 插件‌(推荐)

  1. 安装 Continue 插件
    • 打开 VS Code → 扩展市场 → 搜索 Continue → 安装 ‌。
  2. 配置本地模型
    • 打开 VS Code 设置(Cmd+,)→ 搜索 Continue
    • 在 Continue: Models 中添加如下配置:
    • 重启 VS Code 或重新加载 Continue。
models:
  - name: MLX-Qwen3.5-9B-Claude-4.6-Opus-Reasoning-Distilled-v2-4bit
    provider: openai #一定要设置成openai
    model: MLX-Qwen3.5-9B-Claude-4.6-Opus-Reasoning-Distilled-v2-4bit #这里改成本地使用的模型
    apiKey: omlx #这里改成本地omlx设置的apikey
    apiBase: http://localhost:8000/v1 #这里改成OMLX中API 端点OpenAI API的地址即可
    roles:
      - chat
      - edit
      - apply

  1. 启动 oMLX 服务
    • 确保 oMLX 已在终端或菜单栏中运行,并已加载目标模型 ‌。
  2. 使用
    • 在 VS Code 编辑器中右键 → 选择 Continue: Chat、Agent 或按快捷键(默认 Cmd+I)即可调用本地模型。

✅ 优势:完全离线、代码不上传云端、支持工具调用与结构化输出 ‌。

本地使用截图,能用,够用(M2 16G+512G的macbook pro,请忽略token生成的速度):

集成 Claude Code / Codex/OpenCode/OpenClaw

oMLX 提供一键配置生成器,简化了与主流开发工具的集成:

  1. 打开 Web 管理面板 (http://localhost:8000/admin)
  2. 选择要使用的模型
  3. 点击 “Integrations” 选项卡
  4. 一键复制配置命令
  5. 打开命令行,cd进入需要处理的项目文件夹,对应的命令 回车就可以啦,如codex和claude code的启动命令
'/Applications/oMLX.app/Contents/MacOS/omlx-cli' launch codex --model 'MLX-Qwen3.5-4B-Claude-4.6-Opus-Reasoning-Distilled-v2-8bit' --api-key 'omlx'
ANTHROPIC_BASE_URL='http://127.0.0.1:8000' ANTHROPIC_AUTH_TOKEN='omlx' ANTHROPIC_DEFAULT_OPUS_MODEL='MLX-Qwen3.5-4B-Claude-4.6-Opus-Reasoning-Distilled-v2-8bit' ANTHROPIC_DEFAULT_SONNET_MODEL='MLX-Qwen3.5-4B-Claude-4.6-Opus-Reasoning-Distilled-v2-8bit' ANTHROPIC_DEFAULT_HAIKU_MODEL='MLX-Qwen3.5-4B-Claude-4.6-Opus-Reasoning-Distilled-v2-8bit' API_TIMEOUT_MS=3000000 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 claude