今天,阿里悄悄上线了一款「甜品级」编程模型:Qwen3-Coder-Flash。名字有点长,记住一句就够了:30B 参数,速度飞快,本地就能跑。

到底有多快?
官方跑分显示,它生成 100 行代码只要1.7 秒。我自己试了试,让 AI 给「贪吃蛇」加排行榜功能,从描述到可运行,全程不到 30 秒。
能看懂整个项目?
是的。它一次能啃下25 万汉字的上下文,相当于把整个前端项目扔进去,它也能记住每个文件之间的调用关系,不会再“断片”。
普通人怎么用?
在线体验:打开 chat.qwen.ai,选「Coder-Flash」模型,直接聊天写代码。
装到本地:去 魔搭社区 或 Hugging Face 下载,一张 24G 显存的显卡就能跑。
VSCode 插件:CLINE、Roo Code 已经支持,装好插件,选模型,写注释就能自动生成代码。
适合谁?
学生刷算法题、独立开发者做副业、产品经理想快速出原型,都能省掉大把查文档、写样板代码的时间。
免费吗?
在线版目前免费不限量;本地版完全开源,可商用,不用翻墙。
一句话总结:如果你嫌 GitHub Copilot 太贵、ChatGPT 太慢,Qwen3-Coder-Flash 是目前最香的“平替”。
-
喜欢(10)
-
不喜欢(3)

