0%

Claude-Code 使用体验

Claude-Code 使用体验

背景

随着 AI Agent 的发展,一批工具随之大火,如 OpenCodeCodeXClaude CodeOpenClaw 等,极大提升了开发效率,同时也重塑了传统开发流程。

近期抽了些时间简单体验了 AI Agent 开发工具,并基于 Claude Code 和几个国产模型在 Web 开发上做了一些简单测试,这里做个分享。

Web开发能力测试

随便找了个图片用于测试Web开发能力,试了几个大模型。图片如下:

cover

提示词

基于pnpm+vite+vue3+ts+tailwindcss技术栈,阅读并理解 @design/cover.png 图片
生成一个web页面,并基于playwright mcp server 来调试和验证,确保其与图片表现一致。

各模型表现

均能正确的生成要求技术栈所对应的模板代码,但在输出的结果上差异较大核心点在于图像理解。

图像理解能力截图如下:

alt text

就是单纯的胡言乱语。

DeepSeek

DeepSeek 不支持多模态这里直接弃权。

GLM-4.7

alt text

MiniMax M2.5

alt text

Claude-Opus4.6

这里没有Claude-Opus4.6的相关环境,是拜托一位有权限的热心朋友帮忙的,据称生成如下结果花了40RMB

alt text

Figma-Mcp

这里把Figma-Mcp单独展示是因为其基本做到了像素级还原。

设计

alt text

结果

alt text

结论

关于模型

  1. 基础模型能力比你想象中的要重要

  2. 价格与质量差异显著

    模型 输入价格 输出价格
    Claude Opus 4.6 $15/M tokens $75/M tokens
    GLM-4.7 ¥1/M tokens ¥1/M tokens
    Minimax-M2.5 ¥1-2/M tokens ¥1-2/M tokens
  3. 国产模型图像理解能力基本为 0:在测试中,国产模型无法正确理解网页设计图,生成的代码与设计相差甚远。这并非模型不够努力,而是多模态能力存在代际差距。

关于 Design to Code

  1. Design To Code 已是现在进行时:不再是未来概念,而是当下可落地的技术。
  2. Figma MCP 带来质变:通过 Figma MCP 获取结构化的设计信息(而非仅一张图片),可大幅提升 AI 输出质量。
    • 传统方式:设计图 → AI 理解 → 代码(依赖模型图像理解能力)
    • Figma MCP:设计数据 → 结构化信息 → 代码(精准还原设计)

关于开发者

  1. 开发模式已从传统的「编码-调试」重塑为「构建完善文档-AI 生成代码」。
  2. 时间会惩罚每一个不习惯写文档的开发者。
  3. 相较于开发者薪资,Token 消耗成本几乎可以忽略不计。
  4. 必须跟上时代——传统开发模式已被 AI Agent 工具淘汰,初入行者更难有出路。

参考 & 引用