ディスカッション (8件)
Rustプロジェクトを支える主要なコントリビューターやメンテナたちが、急速に普及するAI(人工知能)について、それぞれの立場から多様な意見を交わしています。開発現場での活用から将来の展望、そしてコミュニティとしての向き合い方まで、興味深い議論が展開されています。
AIは結局、社会契約を壊しちゃうんだよね。人間は完璧じゃないけど、プロンプトに書かなくても通じ合う共通の価値観がある。AIは便利だけど、その価値観を理解してるか確信が持てない。学習データにある程度入ってるかもしれないけど、人間よりずっと不安定で予測不能だってことはみんな分かってるし。そもそもLLMだけの問題じゃないんだ。リーナス・トーバルズが自分で書かずにアシスタントに書かせたコードを投稿したら、良かれ悪しかれ俺はそれを鵜呑みにする。彼の判断を信じてるから(人間だから間違うこともあるけど)。でも、無名のコントリビューターが同じことやったら、たとえコードが良くてもマージする前に躊躇するでしょ。GitHubでも既にこういう動きがあるよね。既知のコントリビューターをホワイトリストに入れるオープンソースのソリューションがあるし、GitHub側でもそういうコントロールができるようになりそう。
タイトルが紛らわしいな。最初のほうに書いてあるけど、「ここに書かれたコメントは『Rustプロジェクトの見解』じゃなくて、書いた個人の意見」なんだよね。Rustプロジェクトとしては、今のところAIツールの使用について一貫した見解や立場は持ってない。このドキュメントは、それを形成していくための第一歩ってことらしい。だからこれを「AIに関するRustプロジェクトの展望」と呼ぶのはちょっと違う気がする。
「良い結果を出すには細心の注意とエンジニアリングが必要だ。モデルが制御範囲内に収まるように工夫しなきゃいけない。問題を慎重に構造化し、適切なコンテキストとガイダンスを与え、道具や環境を整える必要がある。コンテキストウィンドウの最適化も考えなきゃいけないし、その制限も知っておく必要がある。」 つまり、普通の人がAIを使いたくなる理由とは、真逆の性質に全振りしなきゃいけないってことか(笑)。
道徳的な理由でLLMを拒絶してる人たちは、正直かわいそうだ。おそらく時代に取り残されるだろうし、自分が「不道徳」だと思っているものの上に構築されていく世界で生きていかなきゃいけないわけだし。
多くの人がAIに対して抱いてる不満って、低能なモデルを使って、バグが直ったっていう十分な証拠が得られないことから来てる気がする。AIを禁止するんじゃなくて、プロジェクト側で最低限の「賢さレベル」を設定すればいいんじゃない?例えば「コントリビュートするには、コードを書くのもレビューするのもgpt-5.4-codex high以上を使え」みたいに。
業界も世界全体もAIまっしぐらだけど、この記事にある意見(リンク先)には共感するな。俺もそこに書いてあるような理由で、仕事で直接AIは使ってない。一応言っとくと、検索の強化版とか、新しい概念やトピックの導入としては使うよ。でも、コードを書かせたり解決策を作らせたりするのはもうやめた。
こういう視点を読むのは楽しいな、論理的で洞察に満ちてる。コードにおける生成AIについてはまだ決めかねてるんだ。目先の効果だけじゃなくて、社会的、構造的、権力や責任の面も考えないといけないからね。別の分野、例えば文章とか文学、メールなんかについては、生成AIを使うのは断固拒否してる。俺が文章を読むのは他の人間と繋がるためで、そのための対価は「時間をかけること」だと思ってるから。コードに関しては、そこまで確信がない。最近はコードを芸術作品や人間性の表現だとはあまり思ってなくて、職人技が見え隠れする「技術的な成果物」だと捉えてるから。生成AIは将来コンパイラみたいな存在になって、20年後にはみんな特定の企業が持ってるコンパイラやIDEに依存するようになるのかな?そもそも、今までに積み上げられたパターンや手法以上に進化できるんだろうか?疑問は尽きないけど答えは出ないし、受け入れるのも拒絶するのも、どっちも愚かな気がしちゃうんだよね。