ディスカッション (10件)
コーディングに特化した強力なAIエージェントモデル「Qwen3.6-35B-A3B」が公開されました。誰でも自由に利用可能です。
Junyang Linたちが去ったり、いろいろ横槍が入ったりしてたから、Qwenチームがまたオープンウェイトを公開してくれてホッとしたよ!
正直、こういうAIソフトこそ楽しみにしてたんだ。「危険すぎるから公開できない」みたいな過剰な煽りもないし、IPO向けの誇大広告もない、サブスク料もかからない。触るのが楽しみすぎてたまらないよ。
Qwenチーム、いいリリースだね。個人的には、パブリックなモデルへのアクセスが制限されている開発会社の特定のニーズに合わせたカスタムエージェントを作るなら、こういう小規模なオープンウェイトのコーディングモデルが最適だと思う。例えば、銀行とかヘルスケア業界の開発会社なんかだね。欧米のプレイヤーがこの市場をほとんど無視してるのは残念。この方向で動いてるのはMistralぐらいだし。
もうUnslothが使いやすいフォーマットに量子化・変換してくれてるね。
そういえばQwenの役員がTwitterで「どのQwen3.6モデルをオープンソースにしてほしい?」ってアンケートを取ってたよね。27bモデルが圧倒的に人気だったはずだけど、なんで無視したんだろ笑
みんながこういうローカルモデルをどう使ってるのか純粋に気になる。実際どうやって環境を構築して、AnthropicやOpenAIのトークンを借りる以上の価値を見出してるの?
Qwenに関する面白い分析を見つけたよ。「Qwenのベースモデルは試験問題に特化したような傾向が強くて、LlamaやGemmaといった他のベースモデルとは明らかに毛色が違う。“The”とか“A”みたいな曖昧な単語からランダムに生成した埋め込みベクトルを見るとそれがよくわかる」だって。
自分のノートPCでUnslothの20.9GB GGUFを使ってLM Studioで動かしてるよ。自転車に乗ったペリカンを描かせたら、Opus 4.7より上手かった!
ローカルのテストでQwen3.5-35B-A3Bをかなり使ってるけど、自分のマシンで動かせるモデルの中ではダントツで高性能だよ。量子化技術の進歩は本当にすごいね。特に「Mudler APEX-I-Quality」と、後から試した「Byteshape Q3_K_S-3.40bpw」の2つには度肝を抜かれた。どっちもスペック詐欺っぽかったのに、エージェントで長時間コーディングしてもモデルの劣化を全く感じないんだ。Byteshapeの量子化だと40t/s以上出るから、エージェントの動作もかなり快適。RTX 3060 12GBとシステムメモリ32GBの環境で、以前はメモリを使い果たしてたのに、今は14GBも余裕があるよ。