ディスカッション (11件)
Alibaba Cloudが開発するLLMシリーズ「Qwen」の周辺が、何やら騒がしくなってきました。新しいモデルの発表や重大なアップデートが近いのではないかと、コミュニティの間で期待が高まっています。一体何が起きようとしているのか、今後の展開から目が離せません。
彼らがどこか他の場所で仕事を再開して、競争力のあるオープンウェイトモデルのためのこの素晴らしい戦いを続けてくれることを願ってるよ。正直、こういうのに政府が資金を出すべきだと思ってたんだけど、中国企業がそれに次ぐ存在って感じだね。
これが開発をあまり邪魔しないといいんだけどな。サイモンが言う通り、Qwen3.5はマジですごい。ここ数日Qwen3.5-35B-A3Bをテストしてるけど、めちゃくちゃ印象的なモデルだね。このサイズでテストした中では、エージェント的なコーディング能力が圧倒的に高い。Pi harness経由でRustやElixirを書かせてみたけど、こっちがほとんど指示しなくても定義済みのタスクをしっかりこなしてくれる。テストを書くように指示すれば、ズルせずにちゃんとパスする妥当なコードを書いてくれるし。テストやコンパイラのエラーに対応しながらゴールに向かって進むループも、すごくうまく処理できてるよ。
「AIが人間に取って代わる」から「(特定の)人間がいなきゃAIは終わり」って極端すぎて、ちょっと頭がついていかないよ。もうAIが自分たちでやっていけるくらい十分進化してるんじゃないの?とんでもない時代だね!
なんでアメリカのラボが札束攻勢をかけて、この研究者たちの居場所を確保しなかったのか不思議だよ。
Qwen3.5が異常に優秀だってのには同感。検証してみたんだけど、Ada NextGen 24GBで(35B版を)ローカルで動かしてeasy-llm-cliで使ってみたら、gemini-cli + Gemini 3 Proと同じようなタスクで互角だった。かなり高速に動作したのもマジで驚き。
Qwenの研究チームと、Qwenアプリとかをやってるアリババのプロダクトチームの間で軋轢があったらしいね。最近、アリババがDAU(日間アクティブユーザー数)をKPIとして押し付けようとしたんだって。アリババみたいな企業が何らかの理由でプロダクト戦略を強制するのはわかるけど、不可解なのはなぜ研究チームの主要メンバーを追い出したのかってこと。この業界、モデルの研究者や開発者が不足してるんじゃなかったっけ?
ローカルモデルで気づいたんだけど、みんな試行錯誤に対して結構寛容だよね。ホスト型モデルがトークンを無駄にするとコストがかかって損した気分になるけど、ローカルモデルがループしてても「考えてるな」って感じがする。もしQwenみたいなモデルがローカルでのコーディングタスクに十分使えるようになれば、本当の変化は能力そのものよりも経済的な部分で起きるかもね。
ここ数日32Bをローカルで動かしてるけど、エージェント的なコーディングタスクをこなす能力の高さには正直驚いてる。間違いなく期待以上のパフォーマンスだね。不満な点といえば、指示が長くなるとプロンプトの半分くらいを無視することがあるけど、このサイズならまあトレードオフってところかな。
忘れろよジェイク、ここはチャイナ(タウン)だ。
数学者として、最近Qwenをいろいろ試してる。できるだけ質の高い専門的な要約を作ったり論文間の関係を調べたりしていて、arXivの論文で使われた誤った帰属主張の検証までやったこともあるよ。全部ここにまとめてある:https://imar.ro/~mbuliga/ai-talks.html (https://imar.ro/~mbuliga/ai-talks.html)