ディスカッション (38件)
以前、私たちが開発しオープンソース化したZen MCPは、私たちの共同ワークフローを強化するために生まれました。そして今では、数千人の開発者(および非開発者)を支援しています。当初のアイデアは、Claude Codeを他のAIモデルと連携させ、生産性を向上させ、より幅広いアイデアを取り入れることでした(Gemini / OpenRouter / GrokなどのAPIキーを使用)。Claude Sonnetがコードを生成し、Gemini 2.5 Proがその後レビューするという流れです。Zenは複数の_ワークフロー_を提供し、ツール間のメモリ/会話の継続性をサポートします。
これらのワークフローは今でも非常に強力ですが、最近Claude Codeの週間クォータ制限が削減されたため、すべてのトークンが重要になっています。私は20x Maxプランを利用していますが、昨日、何もしていないように見えるのに、週間クォータの約80%を消費したという警告が表示されました。Codexが私の主要なドライバーになりつつある今、他のCLIをワークフローに取り込むことには計り知れない価値があることがますます明らかになっています。コードレビュー、計画、調査などの特定のタスクをGeminiのようなツールにオフロードすることで、コンテキスト(と週間制限)を維持しながら、他のCLIのより強力な機能を活用できます。
Gemini CLI(単独ではエージェント的なタスクにはひどく不向きですが、Gemini 2.5 Proは推論において絶対に素晴らしいです)は、1日に最大1000件の無料リクエストを提供します!より単純なことにCLIを直接使用してみませんか?ドキュメント作成?コードレビュー?バグ探し?もしかしたら単純な機能/拡張?
Zen MCPは今日、それを可能にする素晴らしいアップデートを実装しました。Gemini CLIをClaude Code内から直接(またはCodex、またはMCPをサポートする任意のツールから)使用し、単一の共有コンテキストを維持できます。また、CLIに複数のカスタム_ロール_を(構成可能なシステムプロンプトを介して)割り当てることもできます。信じられないほど強力です。これにより、Claude Codeのトークン使用量を劇的に削減できるだけでなく、Geminiからの無料クレジットを活用することもできます!
間もなくCodex / Qwenなどもサポートする予定です。これは、任意のAIモデルを組み込むことに加えて、タスクをCLI間で委任し(それらに独自の役割を与えることができます!):たとえば、GPT-5でplanner
ツールを使用して何かを計画し、Gemini 2.5 Proに細部を指摘させ、Sonnet 4.5に実装させます。次に、Gemini CLIにコードレビューと単体テストの作成を依頼します。すべて同じ共有コンテキストにとどまり、トークンを節約し、あらゆるものの最高のものを手に入れることができます!可能性は無限大です!
--
上記のビデオは、一度のテイクで撮影されました(待ち時間をカットするためにフレームをトリミングしました)。
https://github.com/LeonMarqs/Flappy-bird-python.git
をクローンしました(スコアリング機能は含まれていません)。- Claude Codeに、GPT-5とCodexに何を追加するのが良いと思うかを尋ねるために、
consensus
Zen MCPツールを使用するように依頼しました。 - Claude Codeに、実際の実行をGemini CLIに実行させるように依頼しました(Gemini CLIは、会話全体+コンセンサス+リクエスト+プロンプトを受け取りました)。
- 動作するかどうかをテストしました - そして動作しました!
もしこの投稿がClaudeで構築したプロジェクトを紹介するものなら、他の人が簡単に見つけられるように、投稿のフレアーを「Built with Claude」に変更してね。
これらのモデルでClaudeのサブエージェントを使う方法って何かあると思う?例えば、ドキュメントや実装のリファレンスを探すWeb検索とAPI検索のサブエージェントがあるんだけど。これらのエージェントを呼び出すときに、Gemini上で実行できたら最高だよね。
僕が知ってる限りでは、できるはずだよ。指示で「zen clink ....を使う
」って書けば、Geminiが起動するはず。
Zen、マジですごい👏🏻 めっちゃ使ってるよ!
ありがとう!
[削除されました]
👍 そうだといいな!
どこ情報? バグじゃないし、もっと使いたかったら課金しろって言われたんだけど: https://www.reddit.com/r/ClaudeAI/comments/1nvnafs/update_on_usage_limits/
バグだって? いつそんなこと言ってた?
Zenに関する良いビデオってある? MCPのチェックリストに入ってるんだ。
わー、これすごいね! 一つ嫌なのは、ステップごとにどのモデルを使うか指定するのが面倒なこと。自動機能ってある? もし無ければ、コーディングのワークフロー専用のモデルルーターを構築中なんだけど、興味ある?
あるよ。モデルを指定する必要はなくて、オートモードを選ぶか、常に使うモデルを固定できる。ドキュメントに書いてあるし、めちゃくちゃ設定できるよ。
ちょっと理解が追いつかないんだけど、一つのCLIクライアントからLLMモデルを統合することについて話してるの?それともCLIクライアントの統合? 実際、Claude CodeはCodex CLIみたいな残念なやつよりも、Qwen Codeよりはちょっとマシなくらいで、多分一番パワフルでクールなCLIクライアントだよ。新しいDroidもモデルについては嘘ついてるけど、かなり良いクライアントだし。でもClaude Codeよりは劣るね。
だから、僕にとっての問題はモデルについてだけで、APIだけじゃなくて、サブスクリプションモデルについてもなんだ。Claude Code +1のサブスクリプションとGLM 4.6のサブスクリプション、またはCodex GPT-5のサブスクリプション認証と利用を統合できたら便利だと思う。APIじゃなくてね。そうすれば本当に革命的で、トークンを節約できるようになると思うんだ。
一つのCLIクライアントからLLMモデルを統合することについて話してるの?それともCLIクライアントの統合?
ちょっと違うかな。簡単に言うと、Zenを使うと、ClaudeCode(例えば)が好きなAIモデルと通信できるようになるんだ(APIキーを使ってOpenAI / xAI / OpenRouterなどにネットワークAPIコール経由で接続する)。
今回のアップデートで、ClaudeCodeは別のCLI(例えばgemini
)と直接通信できるようになったんだ。そのCLIが提供するモデルや設定(もしGemini CLIがgemini-2.5-pro
とgemini-2.5-flash
を提供しているなら、Zenを設定してgeminiCLIを特定のモデルで使用し、システムプロンプトで特定の役割を指定できる)を使うんだ。CLI → CLIの通信で、まるでClaudeCodeがGeminiCLIに直接コールして作業させてるみたい。でもクールなのは、それがすべてClaudeCodeの中で行われているから、最終的な出力はClaudeCodeに戻ってきて、何が起こっているかを常に把握して、そこから処理できるってこと。
直接って言うのは、APIなしってこと?つまり、Claudeのコードの中でGeminiのログインを実質的に使ってるってこと?
つまり、APIキーを使ってClaudeの中からGeminiとか他のモデルに接続するか、コンピューターにインストールされてる「gemini」っていうAI CLIツールに直接メッセージを送らせるかのどっちかってこと。直接接続する場合は、コマンドラインインターフェース経由でやり取りしてるから、単にプロンプトを仲介して実際のツールに渡してるだけ。そのツールはOAuthとかで個別に設定されてる(Claudeはログイン情報を知らないし、取得もできない)。
この機能についてもっと詳しくはこちら:https://github.com/BeehiveInnovations/zen-mcp-server/blob/main/docs/tools/clink.md
カスタムロールを作成したり、カスタム設定を使用したりできることに注意してね(サブエージェントのように)。Zenは単なる仲介役として機能するだけだから、もしサブエージェントがCLIに追加されていれば、このツール経由でそれを呼び出すこともできるはずだと思うよ。
Codex / Qwenとか、Claude Codeのサポートも近いうちに追加するよ
別のClaude Codeアカウントにタスクを割り当てるの、めっちゃいいじゃん。
追記:
planner
ツールをGPT-5で使って計画を立てて、Gemini 2.5 Proにアラ探しさせて、Sonnet 4.5に実装させる。
これってMCPに組み込まれてるの?設定し直せる?例えば、計画はGemini、実装はSonnet 4.5 Thinking、コードレビューはGeminiとGPTとか?
claude
CLIへの引数で、どのアカウントを使うか指定できれば、多分可能になるんじゃないかな。
そうだよ、それぞれのツールは好きなモデルで使えるよ。planner
をGPT-5やCodex、Gemini、Qwen、Deepseek:free、またはセルフホストのオフラインオンデバイスモデルで使うこともできる。文字通り、カスタマイズ性は無限大だよ。
マジですごい。Zenは間違いなく、最も洗練されていて高度なツールの一つだね。
いくつか質問させて。
- 将来的にログイン認証を追加する可能性はある?そうすれば、CC内でCodexとGeminiのCLIの割り当て量を使えるようになるんだけど。僕が知る限り、ZenはAPIキーのみだよね。
- 批判じゃないんだけど、Zenはコンテキスト的に巨大だよね。全てのツールを有効にした状態で実行してる?ライトモードを検討したことはある?
- 機能の多さが、すごいと思う反面、圧倒されるんだよね。以前ドキュメントを読んだけど、すごく良くできてるけど、情報量が多すぎる。ツールと同じように、おすすめのライトワークフローはある?
もしこれらのことがドキュメントに書かれてたらごめん。最後に読んだのは数ヶ月前なんだ。この種の取り組みは、長期的には本当に重要な意味を持つ可能性があると思う。セカンドオピニオンやコンセンサスを得ることは、人間としての働き方であり、間違いなくLLMのパフォーマンスを向上させるよ。
ありがとう :) 回答だよ:
- 可能かどうかはわからないけど、調べてみるよ
- v7.0.2にアップデートしてね。コンテキストの使用量が〜40kから〜9kに減ったよ。
.env
で設定を調整して、使わないツールを無効にすれば、〜2Kまで減らせるよ - 最初から(プロジェクトをクローンして、
./run-server.sh
を実行して)始めると、すぐに使えるものは非常に軽量で使いやすいよ。もし環境に他のプロバイダーのAPIキーがあれば、セットアップスクリプトが自動的に設定してくれる。そこからは、文字通りこれくらい簡単だよ:
- claudeに何かをさせる
geminiとチャットして、これが良いアイデアだったかどうか議論して...
と言うと、ファイル/コードを自動的にgeminiと共有して、意見を聞いてくれるこのアプリにABC機能を追加すべきかどうか、gpt5:賛成とgemini-pro:反対を使ってコンセンサスを実行
と言うと、さまざまなモデル(claudeを含む)から、ブラインドコンセンサス/視点を得られる。「賛成」と「反対」は、それぞれのモデルに割り当てるオプションの「立場」で、その視点を擁護させるんだ。アイデアに対する批判と賞賛の両方を得ることは、素晴らしい効果があるよ!
copilotはsonnet4.5を使えるけど、遅いんだよね。
誰かが、プレミアムリクエストとか何とかを使いすぎないように最適化されてるって言ってたから試してみたかったんだけど、遅いんだったら、それはそれで制限をかけるための別の対策ってことか…マジかよ。
いいね。ちゃんとドキュメント読めって話だけど、ざっくり聞きたいんだけどさ:
これってClaude CodeかRoo Codeで、OAuth認証された(ChatGPT Proのサブスクリプションで、トークン課金じゃないやつ)Codeを使えるようにできる?
CLIからCLIならサブスクリプション使えるようになるよ。でも、CC/CodexをCCの外部から使うサポートはまだ追加してないんだ。Gemini CLIのサポートは追加したんだけどね。ちなみにGeminiは今のところサブスクリプションを提供してないよ。Geminiは3.0になったらサブスクリプション出すんじゃないかな。
これいいね。ちょっと前に同じことをダイレクトコマンドで試したんだけど、Claude Codeは--continue
コマンドでステートフルだけど、Gemini CLIはそうじゃないんだよね。
だから、Gemini CLIで計画を立てて、Claude Codeでレスポンスを生成、みたいな使い方ができるね。
Zenのツールに組み込まれてる継続機能が、その点をもっと助けてくれるはず。前のコマンドのプロンプトと出力を新しいコマンドに渡しながら、clinkを次々に使えるってこと。
ざっくり言うと、Geminiを使って変更とかを実行するようにCCに指示してるけど、かなりうまく動いてるよ(mcpなしで)。
そうそう、その通り。基本的には裏側でターミナルコマンドを直接実行してるだけだからね。特別なことは何もしてないよ。ただ、継続/コンテキストの取得/フォローアップは、複数の呼び出しにまたがっては機能しないんだ。例えば、Geminiに修正を提案させて、Claudeに修正させて、「Geminiで継続して、修正されたか確認して」って言いたい場合に便利なんだけどね。Zenは裏側で、Gemini CLIとの過去の会話を繋ぎ合わせて、以前のプロンプト/レビュー/指摘された問題点を含めて、これらすべてを新しいプロンプトとしてGeminiに送信するんだ。
単に便利で、手間が省けるってだけ。
全部の親としてClaude Codeを使うのは意味不明だよね。VSCode -> Cline -> 好きなモデル(Claude Code含む)を使う、VSCode API経由でGitHub Copilotを使う、とかの方が良くない?
なぜクローズドソースのClaude Codeに、より優れたオープンソース製品を制御させるの?
まあ、結局は個人の好みとニーズ次第だよね。例えば、俺が取り組んでるプロジェクトは、VS Codeじゃ動かないんだ(部分的なサポートとか、不完全だったり、サポートがなかったり)。コマンドラインインターフェースベースのAIツールなら、好きなIDEを自由に使えるからね(俺はいろんなIDEを使い分けてる。特定のワークフロー用に作られた独自のツールも含めて)。
Opusの割り当てをこっそり減らしといて、別のCLI使えばクレジット節約できるよ!だってさ。
Gemini使いたいならClaude Codeいらねーし。マジふざけんな。
俺もCodexに乗り換えたんだ(8月中旬から)。でも、Geminiを使う理由ってコストだけじゃないよね。コードレビューでGeminiを試してみて、Codexと比較してみるといいよ(Codex-highのレビューはマジで優秀)。Geminiって、他のモデルが見逃すエッジケースとか微妙なバグをどういうわけか見つけてくるから、マジで驚くと思うよ。
あと、Claudeに頼るのをやめたとは言え、Claudeは単純で、考える必要のない、マジで簡単だけど退屈な作業にマジで強いんだよね。特に「モダン」で見た目が良いUIに関するものなら何でも。少なくとも、いろんなモデルを試してそれぞれの得意分野を見つけてきた今のところ、それが俺の経験。
俺の経験から言うと、Claudeはフロントエンドにマジで強い。他のも試したけど、複雑なWebアプリにはマジで向いてない。バックエンドのアプリについてはコメントできないけど、Claudeで作った既存のコードベースでCodexを試してみたら、マジでやらかしてくれた。2時間くらいかけて、バグを修正しようとしたらコミットしてない変更をどういうわけか失くしちまって、全然進まなかった。それで、制限がかかってそれ以上試せなくなったから、返金してもらった。俺がやる事にはClaudeが一番合ってる。俺的には逆で、他のモデルは単純な事には向いてるかもしれないけど、Claudeは複雑な事に向いてると思う。