ディスカッション (7件)
AMDのハードウェアを活用して、外部APIに依存しない「完全ローカルなAIエージェント」を構築しましょう。クラウドへのデータ流出を気にせず、プライバシーを保護しながら自分専用のインテリジェントなエージェントを開発できます。ROCmなどのAMD向けスタックを利用すれば、強力なGPUパワーを最大限に引き出した推論環境が手に入ります。APIコストをゼロに抑え、自由自在にカスタマイズ可能なAI開発を今すぐ始めましょう!
ページからはあんまりはっきりしないけど、TipRanksの記事(リンク先)によると、「さらに、このアップデートでエージェントを複数のOS向けのデスクトップアプリに変換できるようになった」って書いてある。これ、アプリを作る新しい手法みたいだね。アプリを作る(AI)アプリを作る、みたいな。
興味がある人向けに:最低要件は、プロセッサがAMD Ryzen AI 300シリーズ。
信じたかったけど、ローカルでモデルを動かそうとしたことがある人なら、例にあるようなROCm上のPythonコード2行で解決するなんてありえないって分かるはず。
ROCmもマシにはなったけど、現実はモデルそのものよりドライバスタックと戦ってる時間の方が長いんだよね。AMDで実際にローカル推論をやろうとすると、AIの部分じゃなくてCUDA互換レイヤーに時間を取られる。Python 2行なんてただのマーケティングだよ。デモと、実際に動くAMD環境の間の溝はまだ埋まってない。
良心的なエンジニア数人のおかげでROCmもようやく改善されてきた。でもぶっちゃけ、AMDは一般ユーザーに対してはかなり不誠実だったよね。俺のiGPUだと、動かすためにGFX900に偽装してソースからビルドしたりステージングパッケージを使ったりしなきゃいけない。GFX90cのサポートもやっとパイプラインに入ったところだし…。最近の改善も、NVIDIAに市場を食われまくって客がいなくなるのが怖いから、ようやくガードマンがドアを開けてくれたって感じ。ROCmを使わせるために「エンタープライズ」向けGPUを強引に買わせようとしてたし、ラインナップを広げてるのも単にシェアのため。こういうやり方は評価すべきじゃないな。
Nvidiaは、ディープラーニングが流行る前から全ラインナップでCUDAが動くようにかなりの労力を注いできた。これは5年前のハードを持ってるユーザーに何かさせて利益を得るためじゃなくて、「古いゲーミングPCでサクッとスパコン並みの計算をしてみよう」っていうデモや、自分たちがこの道で行くっていう意思表示なんだよ。AMDの経営陣は、NVIDIAの中の人がまさにそのためにやったって言ってるのに、未だにそれが分かってない。そのシグナルが出てないってことは、AMDのコンピューティング・エコシステムは投資先として信頼できないっていうメッセージになっちゃってるんじゃないかな。