ディスカッション (10件)
CloudflareがAIエージェントの構築を強力に支援する、新しい推論レイヤーをリリースしました。エッジ環境での高速な推論処理を可能にし、AIアプリケーションの構築をよりシンプルかつ効率的にします。
モデルのページ[1]に価格情報が載ってないんだけど、プロバイダーに直接支払うのと比べてどれくらいコストメリットがあるのか気になる。もしかしてCloudflareは原価で提供してる?あと、データ保持ゼロ(Zero Data Retention)がデフォルトでオンになってないし、すべてのプロバイダーでサポートされてない[2]のも気になるところ。最後に、OpenAIとAnthropic両方のスタイルの補完(completion)を返してくれるようになったら最高なんだけどな。
これ、かなり便利そう。Cloudflareはいいツールをまとめてきてる感じがあるね。そういえば、D2は信頼性が高くて無料枠も太っ腹な、数少ないSQLite-as-a-Serviceのソリューションだしね。
これは大きい。Bedrockの有力な代替になるかもね。AnthropicやAWSより稼働率(アップタイム)も安定してそうだし。
こっちのページ(https://developers.cloudflare.com/workers-ai/models/ )のWorkers AIモデルと、こっち(https://developers.cloudflare.com/ai/models/ )のモデルが完全には一致してないのがすごく分かりにくい。確かに「ホスト済み」のモデルは両方で見れるんだけど、モデルのエンドポイントを見ると「workers-ai/*」ネームスペースの方が選択肢がかなり少ないよね。これって意図的なものなの?
Replicateの買収がちゃんと活きてきてるのが見て取れていいね!
で、これってOpenRouterと似たようなものなの?
つまりCloudflareのArgoネットワークを使ったOpenRouterってことか。Replicateの買収でもっと面白いことができるんじゃないかって気がするんだけどな。アプリケーション固有のRL(強化学習)の精度が上がってきてるのに、スケーラブルにデプロイするいい方法がないんだよね。FireworksみたいにLORAをスケーラブルにデプロイできると謳っているプロバイダーですら、実際にはできてないし。今のところ、ガレージに置いた3090のラックでベースロードをホストするしかないんだけど、バカらしいと思いつつも月1,000ドルの節約になってる。
推論層の問題は急速に解決に向かってるね。次に来るもっと難しい問題はガバナンス層じゃないかな。エージェントに何を許可して、それを後からどう証明するか。Cloudflareがそのレイヤーについても考えてるのか興味がある。
Cloudflare WorkersからOpenRouterを呼ぶやり方で完璧に動いてるよ。モデルがダウンした時のカスケードやウォーターフォール機能もOpenRouterの方が優れてるし。V1でそれが実装されてるか怪しいところだよね。OpenRouterについてはもう全部好きなくらいのファンボーイだよ。