ディスカッション (11件)
Hacker News(HN)では、AIによって自動生成されたり、AIで編集されたりしたコメントの投稿を禁止しています。HNはあくまで「人間同士」が真剣に語り合うためのコミュニティです。AIの出力ではなく、あなた自身の言葉で対話に参加しましょう。
ネット上で誰が本当に人間かを証明するっていうのは、これから数年ですごく重要な課題になると思う。特に、その過程でプライバシーや匿名性の権利を犠牲にせずにどうやるかっていうのがね。
いいね。これでHNの文化として定着しやすくなる。それがガイドラインの目的だしね。現実でもオンラインでも、ルールの運用の99%は、個人がその文化を受け入れるかどうかにかかってるんだ。ルールは敵対者のためにあるんじゃなくて、普通の状況のためにあるもの。敵対者にはまた別の対処法があるしね。
「AI編集されたコメント」っていうのはすごく興味深い。最低限裏でN-Gramを使ってるGrammarlyみたいなスペル・文法・トーンチェッカーと、「AI」編集の境界線はどこにあるんだろう?ここで聞きたいのは、この文脈での「AI」がフル機能のLLMを指すのか、それとも自動システムでコミュニケーションを改善するもの全般を指すのかってこと。ChatGPTとかが出るずっと前から、こういう「高度な」スペルチェッカーを使ってる人はたくさんいたと思うし。「生成されたコメント」は明確な一線だと思うけど、「AI編集」は全然はっきりしてないよね。追記:このポリシーの考え方自体はポジティブだし必要だと思う。ただ、どこからが対象なのかをはっきりさせたいだけ。
ユーザーにはAIを使うなと言いつつ、一方で今まさにインターネットを台無しにしてる無数のAI企業に資金提供しようとしてる。この投稿、ちょっと皮肉を感じるな。
俺は本物の人間がどう考えてるかを読みに来てるんだ。LLMの考えを知りたければ、そっちに直接聞けばいいだけだし。でも、ここからが難しいところで、人間が書いたものなら適当な思いつきの反応でもいいのか、それともLLMで強化されてても洞察に満ちた練られた回答の方がいいのか。俺が本物の人間を求めてるのは、純粋に本物であることに価値を感じてるからなのか、それとも人間の方が質が高いと期待してるからなのか。正直、どっちもあると思う。でもいつか、LLM強化版のアウトプットが平均的な人間を圧倒するほど良くなって、あえて人間版を選ぶのが苦痛になる日が来てもおかしくないな。
素晴らしい投稿だね。俺がここに来る理由は、賢い人たちの思慮深い意見を聞きたいからであって、LLMから自分で引き出せるようなものが欲しいわけじゃない。ついでに言うと、自分の頭で考えようぜ。とりあえず「AIに下書きをさせる」のがいかに簡単かは分かってるけど、自分で考える労力を惜しむようになると、破滅への道に繋がっちゃうと思う。まだここに残ってる人間のみんな、ありがとう!
このポリシーには100%賛成。ただ一つ注意したいのは、優れた書き手とLLMはすごく似てるってこと。LLMは優れた書き手の文章で学習してるからね。セミコロンやエムダッシュを使ったり、箇条書きを使ったりするし。だから、HNの別のルールに従って、相手は誠実な人間だと仮定すべきだし、安易にAIだと決めつけないように気をつけなきゃいけない。(俺自身、100%手書きで長文のしっかりしたコメントを書いたのに、AIだって疑われたことが何度もあるんだ)
普通の「通報(flag)」とは別に「AIとして通報」リンクがあればいいのに。それで、設定で「AI通報されたものを表示する」とか選べるようにしてさ。AI通報がある程度溜まったら、設定をオンにしない限り消えるようにするとか。もしかしたら、そうやって溜まったデータを使って、AI生成コンテンツを自動検知するAIを訓練できるかもしれない。それってクールだよね。HNのサイト自体に機能がつかなくても、誰かがクライアントを作れば実装できるかも。
これには100%賛同する。テック業界に入ってからずっとHNを見てるけど、投稿や議論の質がすごく高いから、ここだけは定期的にチェックして参加してるんだ。この1年、AI関連の記事が増えてて、さらに加速してる気がする。コメントの中のAIっぽさは個人的にはそんなに気にしてなかったけど、運営のdangやtomが裏で俺の気づかないところで頑張ってくれてるのかも。ただ、フロントページにAI関連の投稿が多すぎるのはどうにかしてほしい。単純に好奇心をそそられないんだよ。どれも形を変えただけの同じような内容ばかりで。現時点でもフロントページに8〜10個はAI/LLM関連があるし。注目の分野なのはわかるけど、俺がHNに来るのは面白い議論をしたいからで、こういうのは正直もうお腹いっぱいかな。
ちゃんと明記した上でAIのアウトプットを含めるコメントはどうなんだろう?今日、35年くらい前に聞いた最高裁の判決を思い出したんだけど、ケース名が思い出せなくてググっても見つからなかったんだ。それでPerplexityに聞いたら、俺の記憶を元に候補を出して要約してくれた。その要約が記憶と一致してたし、判決文を確認したら正解だった。デキも自分でやるより良かったくらい。で、その判決への言及とリンクを貼ったんだけど、いつもならWikipediaを貼るところ、今回は記事がなくて。Perplexityの要約をそのまま貼って「Perplexityからだけど内容は確認済み」って書こうか迷ったんだよね。これってOKなのかな、それともAIが書いたコメントになっちゃう?あと、自分のコメントをAIに通して修正案を出してもらうのも考えてる。俺、ついやってしまいがちな癖がいくつかあって(文が長すぎたり、カンマが多かったり、'serve'のつもりが'server'になっちゃったり)、そういうのはAIが最小限の修正を提案してくれるのに向いてると思うんだよね。