【ぶっちゃけ】RISC-Vって遅すぎない?期待の星が抱えるパフォーマンスの現実
RISC-Vの動作速度について「遅すぎる」という率直な意見が投稿されています。次世代のオープンアーキテクチャとして大きな期待を集めているRISC-Vですが、実環境でのパフォーマンスや最適化の現状については、まだ多くの課題があると感じているエンジニアも多いようです。
海外掲示板から厳選した技術情報を日本語でお届け
海外の人気投稿を毎日自動翻訳
RISC-Vの動作速度について「遅すぎる」という率直な意見が投稿されています。次世代のオープンアーキテクチャとして大きな期待を集めているRISC-Vですが、実環境でのパフォーマンスや最適化の現状については、まだ多くの課題があると感じているエンジニアも多いようです。
HNの皆さん、こんにちは。SanchitとShubham(YC W26)です。Apple Silicon向けに特化した爆速の推論エンジンを開発しました。LLM、音声認識(STT)、音声合成(TTS)の全方位において、私たちの「MetalRT」はllama.cpp、Apple公式のMLX、Ollama、そしてsherpa-onnxを上回るパフォーマンスを叩き出しています。秘密はカスタムMetalシェーダーにあり、フレームワークのオーバーヘッドを徹底的に排除しました。\n\nまた、Apple Silicon上で動作する世界最速のエンドツーエンド音声AIパイプライン「RCLI」をオープンソース化しました。マイク入力から音声応答まで、すべてデバイス内で完結。クラウド不要、APIキーも不要です。\n\nクイックスタート:\n\n```\n brew tap RunanywhereAI/rcli https://github.com/RunanywhereAI/RCLI.git\n brew install rcli\n rcli setup # 約1GBのモデルをダウンロード\n rcli # Push-to-Talkによる対話モード\n```\n\nまたは:\n\n```\n curl -fsSL https://raw.githubusercontent.com/RunanywhereAI/RCLI/main/install.sh | bash\n```\n\n驚異のベンチマーク結果(M4 Max, 64 GB, `rcli bench`で再現可能):\n\nLLMデコード性能 - llama.cppより1.67倍、Apple MLXより1.19倍高速(同一モデル使用):\n- Qwen3-0.6B: 658 tok/s (mlx-lm 552, llama.cpp 295)\n- Qwen3-4B: 186 tok/s (mlx-lm 170, llama.cpp 87)\n- LFM2.5-1.2B: 570 tok/s (mlx-lm 509, llama.cpp 372)\n- Time-to-first-token (初回トークン生成時間): 6.6 ms\n\nSTT(音声認識) - 70秒の音声をわずか101ミリ秒で処理。これはリアルタイムの714倍速に相当し、mlx-whisperの4.6倍の速さです。\n\nTTS(音声合成) - 178ミリ秒で生成。mlx-audioやsherpa-onnxより2.8倍高速です。\n\n開発の背景:デバイス上でのAIデモを作るのは簡単ですが、実際にプロダクトとして「出荷」するのは至難の業です。特に音声AIは最難関。STT、LLM、TTSを順に実行するため、どこか一箇所でも遅延があればユーザーは違和感を覚えます。多くのチームがクラウドAPIに頼るのは、ローカルモデルが悪いからではなく、ローカルの推論インフラが未熟だからです。\n\n解決すべきは「遅延の累積」です。音声パイプラインでは3つのモデルが直列に並びます。各工程で200msかかれば、ユーザーが音声を耳にするまでに600msのラグが生じ、体験が損なわれます。私たちはMetalに直行し、カスタムGPUコンピュートシェーダーを作成。初期化時に全メモリを事前確保(推論中のアロケーションをゼロに)し、3つのモダリティを一つのエンジンで統合しました。\n\nMetalRTは、Apple Silicon上でこれら3つのモダリティをネイティブに処理する初のエンジンです。\n\nなぜ速いのか?多くの推論エンジンはGPUとの間にグラフスケジューラなどのレイヤーを挟みますが、MetalRTはそれらをすべてスキップします。量子化matmul、attention、activationのためのカスタムMetalシェーダーを事前にコンパイルし、直接ディスパッチしています。\n\nRCLIはMetalRT上に構築されたMITライセンスのオープンソース音声パイプラインです。3つの並列スレッド、ロックフリーのリングバッファ、20種類のモデル切り替え、ローカルRAG、そしてレイテンシをリアルタイム表示するTUIを備えています。MetalRTがインストールされていない環境ではllama.cppにフォールバックします。\n\nリポジトリ: https://github.com/RunanywhereAI/RCLI (MIT)\nデモ動画: https://www.youtube.com/watch?v=eTYwkgNoaKg\n\nもしローカルAIがクラウド並みに速くなったら、あなたなら何を作りますか?
AI界の巨頭ヤン・ルカン(Yann LeCun)氏が、物理的な世界を理解する新しいAIの開発を目指し、10億ドル(約1,500億円)規模の資金を調達しました。現在の主流である大規模言語モデル(LLM)はテキストのパターン学習に依存しており、現実世界の物理的なルールや因果関係を把握できていないという課題があります。ルカン氏はこの限界を突破するため、動画などから世界の仕組みを自律的に学ぶ「世界モデル(World Model)」の実現を掲げています。ロボティクスや高度な自律型AIの基盤となるこのプロジェクトは、AIが『常識』を持つための大きなターニングポイントになるかもしれません。
自分が眠っている間も休まずにタスクを処理してくれる、自律型AIエージェントについての話題です。24時間365日フル稼働する自動化システムの構築や、その活用方法に注目が集まっています。
Cloudflareが提供するクローラー向けの最適化機能「Crawl Endpoint」に関するトピックです。検索エンジンのクローラーを効率的に制御し、サイトのパフォーマンスやインデックス効率を向上させるための仕組みについて紹介されています。
Unicode文字「U+237C(⍼)」についての投稿です。この記号は公式には「Right Angle with Downwards Zigzag Arrow」と定義されていますが、実際には方位角(Azimuth)を指し示す記号として機能します。エンジニアでも滅多に見かけない、このマニアックな数学・プログラミング記号の用途を端的に示したトピックです。
クイックソートの考案者であり、計算機科学の発展に計り知れない貢献をしたトニー・ホーア(Sir Tony Hoare)氏が亡くなりました。ホーア論理やCSP(Communicating Sequential Processes)、そして自ら「10億ドルの間違い」と呼んだNULL参照の導入など、現代のプログラミングと言語設計の基礎を築いた偉大な先駆者でした。彼の功績は、これからもすべてのエンジニアの中に生き続けるでしょう。
Hacker Newsの皆さん、こんにちは!Terminal Use(https://www.terminaluse.com/)のFilip、Stavros、Vivekです。私たちは、サンドボックス環境で動作し、ファイルシステムを駆使してタスクを実行するAIエージェントを簡単にデプロイできるプラットフォーム「Terminal Use」を開発しました。コーディングエージェント、リサーチエージェント、文書処理、あるいはファイルの読み書きを行う社内ツールなどの開発に最適です。 デモ動画はこちら:https://www.youtube.com/watch?v=ttMl96l9xPA エージェントのホスティングにおける最大の苦労は、エージェントのパッケージ化、サンドボックスでの実行、ユーザーへのメッセージのストリーミング、ターンをまたいだステート(状態)の保持、そしてワークスペースへのファイル転送といった、バラバラの要素をパッチワークのように繋ぎ合わせる必要があることでした。 私たちが求めていたのは、ReplicateのCogのエージェント版のようなものです。リポジトリからエージェントのコードをパッケージ化し、クリーンなAPI/SDKの背後で提供するシンプルな方法です。エージェントのロジックやフレームワークを制限することなく、通信プロトコルだけを提供したいと考えました。 Terminal Useでは、リポジトリ内の config.yaml と Dockerfile でエージェントをパッケージ化し、CLIでデプロイします。開発者は、タスク(会話)のライフサイクルを追跡する3つのエンドポイント(on_create, on_event, on_cancel)のロジックを定義するだけです。config.yaml にはリソース設定やビルドコンテキストなどの詳細を記述します。 標準で Claude Agent SDK や Codex SDK のエージェントをサポートしており、SDKのメッセージタイプを独自の形式に変換するアダプターを提供しています。自作のフレームワークを使いたい場合は、Vercel AI SDK v6互換の型でメッセージを送信できます。フロントエンド向けには Vercel AI SDK プロバイダーを用意しているため、ストリーミングや履歴の永続化を自分で行う必要はありません。 私たちが「他とは決定的に違う」と考えているのは、ストレージの扱いです。 Terminal Useでは、ファイルシステムをタスクのライフサイクルから切り離し、「第一級のプリミティブ」として扱います。つまり、ワークスペースを複数のターンで維持したり、異なるエージェント間で共有したり、サンドボックスの起動状態に関係なくファイルをアップロード・ダウンロードしたりできるのです。さらに、ファイルシステムSDKは「署名付きURL」を発行できるため、ユーザーがバックエンドをプロキシすることなく直接ファイルをやり取りでき、転送処理が非常にシンプルになります。 エージェントのロジックとファイルストレージが疎結合であるため、サンドボックス内のファイルを心配することなくエージェントの改善を回せます。バグを修正してデプロイすれば、実行中の全タスクを新環境に自動移行できますし、破壊的変更がある場合は、既存タスクは旧バージョンのまま維持し、新規タスクから新バージョンを適用するといった制御も可能です。 現在は、マウントパスや読み書きモードを細かく設定できる「マルチファイルシステムマウント」もサポート予定です。これにより、ストレージの耐久性と再利用性を保ちつつ、タスクごとに最適なマウント構成を実現できます。 デプロイ面では、モダンな開発プラットフォームを参考にしました。シンプルなCLIデプロイ、プレビュー/本番環境、Gitベースの環境指定、ログ、ロールバックなどを備えています。ビルドやリソース管理に必要な設定はすべて config.yaml に集約されているため、CI/CDパイプラインへの組み込みも容易です。 最後に、私たちはこのプラットフォームを自分たちのコーディングエージェント開発に活用し、テストと改善を繰り返してきました。CLIを使えば、デプロイ済みのエージェントにメッセージを送り、ファイルシステムの内容をダウンロードして出力を確認できます。よくやるテスト手法は、検証したいシナリオをMarkdownに書き、Claude Codeに「ユーザー役」を演じさせて、デプロイした自分たちのエージェントと対話させる方法です。 まだ不足している点もあります。汎用的なサンドボックスプロバイダーと比較すると、プレビューURL機能や低レイヤーの sandbox.exec(...) 形式のAPIは現在ロードマップにある段階です。 皆さんのご意見や質問、懸念点など、ぜひコメントで聞かせてください!
この記事は、オラクルが多額の負債を抱えながら、最新鋭とは言い難い旧来型のデータセンター建設に固執している現状を痛烈に批判しています。クラウド市場での競争において、将来の財務リスクを背負いながらレガシーなインフラに投資し続ける戦略の危うさが、エンジニアや投資家の間で大きな議論を呼んでいます。
Hacker Newsで共有された、自作のギターチューナーをリモートで利用できるようにしたというプロジェクトの紹介です。物理的な楽器のチューニングをネットワーク越しに行うという、ユニークで技術的な遊び心にあふれた試みとなっています。
Mogの作者、Tedです。Mogについて紹介させてください。 - Mogは静的型付けのコンパイル型組み込み言語です(イメージとしては「型付きのLua」)。最大の特徴は、LLM(大規模言語モデル)に書かせることを前提に設計されている点で、仕様のすべてがわずか3,200トークンに収まります。 - AIエージェントがMogプログラムを書き、コンパイルし、プラグインやスクリプト、フックとして動的にロードして実行します。 - ホスト側は、Mogプログラムが呼び出せる関数を厳密に制御(ケイパビリティベースのパーミッション)できるため、エージェントの権限をそのまま実行コードに継承させることができます。 - ネイティブコードにコンパイルされるため低レイテンシ。インタープリタのオーバーヘッドやJIT、プロセスの起動コストもありません。 - コンパイラは安全なRustで記述されており、ツールチェーン全体のセキュリティ監査が可能です。すでに、エージェントが自身のコードで機能を拡張する用途で活躍しています。 - MITライセンスで公開しており、コントリビューションも歓迎します。 Mogを開発した動機は以下の3点です。 ### 1. AIだけが愛せる構文 MogはAIが書くために作られた言語です。仕様が約3200トークンと非常にコンパクトなため、LLMのコンテキストに余裕で収まります。また、生成時の「自爆(バグ)」を減らすため、あえて不自由な設計にしています。例えば、演算子の優先順位がありません。`(a + b) * c` のように括弧が必須です。また、長年のバグの温床である暗黙の型変換も廃止しました。ジェネリクスは最小限で、メタプログラミングやマクロ、構文抽象化は一切ありません。 人間には窮屈ですが、LLMは気にしません。むしろ、AIに渡す表現力は制限されているほど安全なのです。 ### 2. ケイパビリティベースの権限管理 AIエージェントのセキュリティにはパラドックスがあります。全アクセスを許可すればハックされるリスクがあり、サンドボックス化しすぎると何もできません。Mogは、マシンコードにコンパイルしつつも、syscallやlibc、メモリへの直接アクセスを遮断することでこれを解決します。 Mogプログラム単体では何もできません。ホストから与えられたアリーナ内でのメモリ割り当てと、ホストが提供した関数の呼び出ししか許可されません。これにより、エージェントが動的に生成したプラグインであっても、ホスト側で実行を完全に監視・制限できるのです。 (PL/プログラミング言語オタク向けのネタ:コンパイラが「協調的割り込みポーリング」のチェックを挿入することで、ホスト側から実行時間を制限できます。タイトなループで約10%のパフォーマンス低下がありますが、最適化の余地はあります) ### 3. 再起動なしの自己修正 例えばOpenClaw(AIエージェント)の設定を変える際、通常は再起動が必要ですが、Mogならセッションを中断せずに新しいプラグインをコンパイルして実行できます。ユーザーのフィードバックを受けて、その場で「ファイルを消す前に必ず確認する」コードを生成・ロードして即座に適応する、といった動的なレスポンスが可能です。 言語レベルでAsync(非同期)をサポートしており、LLVMのコルーチン処理を応用してQBEコンパイラ(Rustポート版)に組み込んでいます。Bunなどのイベントループともシームレスに連携できます。 今後の展望として、Pythonのような「標準ライブラリ(JSON, CSV, SQLite, HTTPなど)」を充実させる必要があります。また、エージェントを介してトークン消費量を管理しながらLLMを呼び出す`llm`ライブラリの実装も計画中です。 AIエージェントが自律的に機能を拡張していくための、強力な基盤になることを目指しています。
米国国防高等研究計画局(DARPA)から、最新の実験機「X-76」に関するプロジェクトが浮上しました。DARPAが手掛ける「Xプレーン」シリーズの最新作として、これまでの航空工学の常識を塗り替えるような革新的テクノロジーの搭載が期待されています。詳細は随時チェックが必要です。
1908年に発生した、世界初の航空機事故による犠牲者(トーマス・セルフリッジ中尉)に焦点を当てた歴史的な記録です。ライト兄弟のデモンストレーション飛行中に起きたこの悲劇は、航空技術の進化における教訓として、現代の安全基準の礎となっています。
この投稿では、「法律上の合法性(Legal)」と「倫理的な正当性(Legitimate)」の違いについて問いかけています。AIを用いたコードの再実装が、従来のコピーレフト(GPLなど)の仕組みをいかに形骸化させてしまうのか。AIが学習を通じて既存のコードを「書き換える」ことで、ライセンスの縛りを巧妙に回避できてしまう現状と、オープンソース文化の危機を考察します。
伝説的エンジニアFabrice Bellard氏が開発した、Webブラウザ上で動作するPCエミュレータ「JSLinux」が、ついにx86_64(64bit)アーキテクチャをサポートしました。これまで以上にモダンなソフトウェアの実行や開発検証が、ブラウザ一つで手軽に行えるようになります。
Wave Function Collapse(WFC)アルゴリズムを活用して、プロシージャル(手続き型)なヘックスマップ(六角形グリッド)を構築する手法についての投稿です。タイル同士の隣接ルールを定義するだけで、複雑で矛盾のないマップを自動生成できるWFCの魅力と実装のヒントが詰まっています。
HNのみんな、調子はどう?世界で何かが起きるたびに、FlightradarやMarineTraffic、Twitter(現X)をあっちこっち行ったり来たりするのに疲れたから、全部ローカルで一元管理できるダッシュボードを作ってみた。その名も「Shadowbroker」だ。UIはちょっと「映画のハッカー」っぽさを意識しすぎた自覚はあるけど、バックエンドのパイプラインは本物だ。民間・軍用のADS-B、AISのWebSocketストリーム(約25,000隻以上の船舶)、N2YOの衛星テレメトリ、そしてGDELTの紛争データを一つのMapLibreインスタンスに流し込んでいる。一番苦労したのは、ブラウザをクラッシュさせずに動かすことだった。i5とRTX 3050のノートPCで開発してるんだけど、最初は3万件以上の動的なGeoJSONデータをマップにぶち込んだら、すべてがフリーズしてしまった。結局、かなり強力なビューポートカリング(画面外の描画抑制)を実装したり、状態更新をデバウンスしたり、FastAPIのペイロードを90%近く圧縮したりして、ようやく実用的なレベルまで持っていけた。個人的に気に入っているのは「シグナルレイヤー」だ。これは、上空を飛んでいる民間機の航法精度の低下(NAC-P)をリアルタイムに集計して、GPSジャミング(電波妨害)が発生しているゾーンを算出している。技術スタックはNext.jsとPython。とりあえず動かしてみたい人向けにリリースページにクイックスタート用スクリプトを用意したけど、バックエンドの中身を詳しく見たい人はリポジトリを覗いてみてくれ。MapLibreの実装で「ここがダメだ」という点があれば教えてほしい。レンダリングを最適化するアイデアは大歓迎だ。
皆さんが今ガチで取り組んでいるプロジェクトは何ですか?温めている新しいアイデアや、気になっている技術があればぜひ共有してください!
詳細はまだ投稿されていないようですが、その名も『FrameBook』。UIコンポーネントの管理やフレームワーク開発をサポートする、新たなエンジニア向けツールの予感がします。Storybookのようなカタログツールなのか、あるいは全く新しい概念なのか。開発効率をブーストしてくれそうなこのプロジェクトの続報に期待しましょう!
「Lil Finder Guy」という、macOSのFinderに関連する小さなユーティリティ、あるいは可愛らしいマスコット的ツールの紹介です。本文は空ですが、Finder周りの作業を少し便利に、あるいは楽しくしてくれる「ちょっとした相棒」のようなアプリを指している可能性が高いですね。