ディスカッション (11件)
Googleが、犯罪集団がAIを活用して致命的なソフトウェアの脆弱性を突こうとしていた事実を明らかにしました。AIがサイバー攻撃の武器として本格的に利用され始めたこのニュースについて、詳細は以下の各報道をご確認ください。NYタイムズ(無料公開リンク): https://www.nytimes.com/2026/05/11/us/politics/google-hackers-attack-ai.html?unlocked_article_code=1.hlA.vW7Y.pO_0G8yLYoca&smid=nytcore-android-share アーカイブ版: https://archive.ph/I4Ui5 AP通信レポート: https://apnews.com/article/google-ai-cybersecurity-exploitation-mythos-926aea7f7dc5e0e61adce3273c55c6d4 CNBC解説: https://www.cnbc.com/2026/05/11/google-thwarts-effort-hacker-group-use-ai-mass-exploitation-event.html
先月発表されたAnthropicのMythosのような新しいAIモデルは、そうした脆弱性を見つける能力が非常に高いため、Anthropicは米英の限られた企業や政府機関にしか公開していないようだ。
この記事、即座に信用できないな。GPT 5.5だってほぼ同じ能力を持っているし。筆者は企業のマーケティングをオウム返ししているだけで、実際には大したことない技術だと見抜けていないんじゃないか。もしかしたら、マイナーなコードを何千回もモデルに走らせて、ようやく何かを見つけたというだけの話かもしれないぞ。
セキュリティという旗印は、オープンウェイトモデルやローカルLLMの進化を制限する口実として使われるだろうな。かつてサイファーパンク技術が悪魔視され、規制されたのと同じようにね。
記事についての編集された意見記事じゃなくて、Googleの実際の記事へのリンクを貼ってくれないか?
https://cloud.google.com/blog/topics/threat-intelligence/ai-... (https://cloud.google.com/blog/topics/threat-intelligence/ai-vulnerability-exploitation-initial-access)
ブラックハットなハッキングは、LLMにとってまさにうってつけのユースケースだな。攻撃者は一度成功すればいいわけだし、たまに間違える程度の精度なら大した問題にはならないだろう。これまでゼロデイ脆弱性を溜め込んでいた人たちの資産価値がこれで暴落するんじゃないか。
その一方で、ChatGPTにピッキングの方法を聞いても教えてくれない。図書館に行けば本に載っている情報なのに。
AIモデルへのアクセスを制限したところで大した効果はないだろう。中国製のモデルが制限されるはずもないし、それらだって脆弱性を発見するのに十分な能力を持っているはずだしな。
かつてファジング技術が登場した時、バグの発見と悪用が急増した。AIはもっと汎用性が高いから、同じような急増が起こるだろうな。ただ、ファジングは安上がりだったけど、AIの計算資源や技術は「占有」できてしまう。AI経済の現実として、金を払わなければセルフホストは難しい(ハードウェアは高いし、オープンソースモデルが追いついてきているとはいえね)。
国家機関やハッカーたちは、より優れた攻撃のためにリソースを投入してくるだろう。さらに恐ろしいのは、経験上、AIが生成したコードはシステム全体の挙動を理解していないことだ。だから、単純で浅いバグか、あるいは逆にシステム全体を揺るがすような巨大なバグが多発するんじゃないかと危惧している。
「この脆弱性の発見と兵器化を支援するために、攻撃者がAIモデルを活用した可能性が高いと確信している」と報告書は述べている。
ただの従来型のゼロデイ攻撃との違いを、一体どうやって「確信」したんだろうか?
皮肉でも批判でもなく、純粋に疑問なんだ。攻撃のどの部分を見ればLLMが使われたと判断できるというのか?
ハッカーのPCを押収して、LLMの会話履歴まで復元できたとでもいうのか?記事にはハッカーが捕まったなんて一言も書いてなくて、パッチが開発されたというだけなのに。
数日前にも「ホワイトハウスがAIモデルの公開前の審査を検討している」という話題で議論があったな (https://news.ycombinator.com/item?id=48013608 (https://news.ycombinator.com/item?id=48013608)) 。