ディスカッション (9件)
AIモデルから直接Webサイトをレンダリングしてライブ配信するという、興味深いデモが公開されています。詳細は以下のリンクからご確認ください。https://x.com/zan2434/status/2046982383430496444
クールなプロジェクトだね。でも一つ素朴な疑問なんだけど、みんなこういうものを作って一般公開するリソースや資金をどうやって確保してるんだろう。自分のGPUを使っているのか、それともGPTやGeminiのエンタープライズ向けのAPIキーで推論コストを補助してもらっているのか。いずれにせよ、節約志向の自分としては正直理解が追いつかないよ。
面白いアイデアだけど、ほとんどの機能がエラーになる。たぶんHacker News経由のアクセス集中(HN hug of death)のせいだろうな。
Hacker Newsのトラフィックに耐えるには、かなりコストのかかりそうなプロダクトだな。ツイートのサンプル動画は最高にクールなんだけど。残念ながら自分のところではうまく動かなかったから、アクセスが落ち着いた数日後にまた試してみるよ。
試しに車のサスペンションのトルクスペック図を作らせてみた。自分もかなり詳しい分野なんだけど、驚くほど正確に描画されてるし、トルクの数値も正しい。各コンポーネントをクリックして拡大すれば詳細スペックも表示されるし、マジで感動した。長年触ってきたデモの中で一番すごいかもしれない。まるで往年のヘインズの整備マニュアルがそのまま動いているみたいだ。
これって「バックエンドにはGPTさえあればいい(GPT is all you need for the backend)」をドーピングして強化したような感じだな。
SFF(小型)PCのビルド図を作らせてみたけど、パーツのラベル付けが全然ダメだね。M.2がGPUとラベル付けされてるし、GPUはM.2やRAMになってるし、RAMはGPUになってる。あと、ケースの中に謎の植物まで生えてるし。SFF PCの一般的なレイアウトとも違う。デモとしては素晴らしいし、UIや遷移も面白いけど、モデルが生成した情報の正確性はまだまだだね。
これ楽しいわ。「すべては輝く雲のおかげ(all hail the glow cloud)」と入力してから、クリックしてナイトベイルの街を歩き回ってる。lore(世界観の設定)を知っていること自体は驚かないけど、かなり一貫性のある絵を描いてくれるな。
楽しいけど、他のLLMと同じで欠陥だらけだな。