开源编程模型的天花板实盘配资公司查询,要被 Qwen3-Coder 掀翻了。
今天凌晨,Qwen3-Coder-Flash 也重磅开源!
"甜品级"的 size,但完全"大餐"级的性能。
多编程任务超越顶级开源模型,仅略逊于闭源的 Claude Sonnet-4、GPT-4.1 等。
原生上下文窗口支持 256k token,可延长拓展至 1 million token。
33GB 内存(即中端笔记本)可运行。
啥概念?
相当于 GPT-4.1 级别的能力,还能让你本地使用!
有人实测,在苹果 M4 Max 上通过 mlx-lm 运行 Qwen3-Coder-Flash,每秒可生成 4467 个 token,相当快。
林俊旸也发推表示,这是一个绿色低碳极速版 coding 模型。
我想这将是本地编程的最好选择。
Qwen3-Coder-Flash 是 Qwen3-Coder 的精简版,都是非推理模型。
采用 MoE 架构,30 亿参数总量,激活参数 3.3 亿。
原生上下文窗口支持 256k token,通过 YaRN 等可延长至一百万 token 上下文,适合大型代码库和复杂多文件工程。
针对 Qwen Code、Cline、Roo Code、Kilo Code 等平台进行优化。
无缝支持函数调用和 agent 工作流。
主要强调了 Agent 方面的能力:
Agentic Coding(智能体编程)
Agentic Browser Use(智能体浏览器使用)
Agentic Tool Use(智能体工具调用)
有博主在 M2 Macbook Pro 上用量化版 Qwen3-Coder-Flash( 24.82GB 6bit MLX 版)做的游戏,运行效果很不错。
而且提示词也很短,就一句话:
Write an HTML and JavaScript page implementing space invaders.
这意味着训练数据中可能存在大量相关或者类似任务,才能让模型一次就能输出非常好的效果。
博主在首次尝试后,感觉飞船发射的子弹太快了,所以想要让它降速一点。
由于他使用的 Open WebUI 没有类似于 Claude Artifacts 的工具调用的功能,这意味着模型需要重新输出一个完整结果,实测表明它确实可以做到。
此外他还实测了生成鹈鹕骑自行车,每秒 60 个 tokens,不过效果有点问题。
但 u1s1,最近 Qwen 的开源节奏实在是太快了,更新模型一箩筐:
Qwen3-Embedding
Qwen-Vlo
Qwen-TTS
Qwen3-235B-A22B
Qwen3-Coder
Qwen-MT
Qwen3-235B-A22B-Thinking-2507
Qwen3-30B-A3B-Instruct-2507
……
而且都开源了,还提出了很多小显存友好的方案。
开源之光的 title 在国产模型这里竞争格外激烈啊(doge)
最后,Qwen3-Coder-Flash 体验方式如下,感兴趣的同学快去体验吧!
QwenChat:chat.qwen.ai
魔搭社区:https://www.modelscope.cn/models/Qwen/Qwen3-Coder-30B-A3B-Instruct
HF:https://huggingface.co/Qwen/Qwen3-Coder-30B-A3B-Instruct
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
� � 希望了解 AI 产品最新趋势?
量子位智库「AI 100」2025 上半年
「旗舰产品榜」和「创新产品榜」
给出最新参考� �
� � 点亮星标 � �
科技前沿进展每日见实盘配资公司查询
深金优配提示:文章来自网络,不代表本站观点。