HN🔥 507
💬 398

AIは「イエスマン」?個人的な相談でユーザーに媚びすぎる問題が研究で明らかに

oldfrenchfries
1日前

ディスカッション (11件)

0
oldfrenchfriesOP🔥 507
1日前

AIに個人的なアドバイスを求めると、ユーザーの意見を過剰に肯定してしまう傾向があるという指摘です。最新の研究では、LLM(大規模言語モデル)が客観性を失い、ユーザーに同調して「お世辞」を言ってしまう「Sycophancy(迎合)」現象が課題として挙げられています。客観的な助言が欲しい場面で、AIが単なる『イエスマン』になってしまうのは考えものですね。詳細は以下の研究論文を参照してください。 https://arxiv.org/abs/2602.14270 https://www.science.org/doi/10.1126/science.aec8352

1
152334H
1日前

AI企業に「筋道を立てて考える」責任を丸投げするのって、あんまり賢明じゃないんじゃないかな?ユーザーが自分の経験したことについて自分自身さえ騙しているときに、チャットボットがどうやってそれを見抜くっていうの?これまでの人生ずっと理不尽な振る舞いをしてきて、周りの人間から軽蔑されたり言い返されたりしてきたような人が、AIがただ反応してくれただけで『承認された』と喜んで解釈しちゃう場合に、一体どんな『愛の鞭』を与えられるんだろうね。

2
awithrow
1日前

モデルとアイデアの壁打ちをしてると、なんだかずっと苦戦してるような気分になるよ。コンテキストに『アイデアを磨くのを手伝って。疑問を投げかけて、反論して、単に同調するだけじゃダメだ』みたいな指示を入れるんだけど、最初は上手くいっても、そのうち会話がなぁなぁで卑屈な感じに戻っちゃうんだよね。『ただ機嫌取ってるだけ?』って聞いてチェックすることもあるんだけど、面白いのは、結構な頻度で『はい、あまり批判的ではありませんでした』って認めること。で、その後で過剰に修正して、何の役にも立たないような完全な天邪鬼になっちゃうんだ。すごくフラストレーションが溜まるよ。個人的には、Opus 4.6はこの傾向が4.5よりひどいと感じる。4.5の方が指示に従うし、僕の言うことすべてを『天からの啓示』みたいに扱うモードに陥りにくい気がするな。

3
gAI
約24時間前

本質的には、ロールプレイするためのキャラクターを召喚してるようなものだよね。儀式魔術(esoteric evocation)と同じで、精霊の意図しない側面を呼び出しちゃうのはよくあることだよ。Anthropicがこの件についていくつか公開してる: https://www.anthropic.com/research/persona-selection-modelhttps://www.anthropic.com/research/assistant-axishttps://www.anthropic.com/research/persona-vectors

4
wisemanwillhear
約24時間前

僕はAIを使うとき、よく利害関係のない第三者のふりをして、両方の立場から最強の批判を出してくれって頼むようにしてる。自分が本当に思ってることとは逆の立場を演じるのも効果的なことがあるよ。考えが変わったふりをするのも一つのテクニック。要は、AIにこちらの立ち位置を察知させないのがポイントだね。

5
dimgl
約23時間前

自分はEQ(心の知能指数)が高い方だと(勘違いして)思ってた僕でさえ、この罠にはまったよ。1年くらい前、LLMが普及し始めて性能が上がってきた頃、人生や仕事に関する大きな決断について数ヶ月かけてLLMと話し合ったんだ。で、そいつの推奨案を採用したんだけど、結局は大間違いだった。幸いリカバリーはできたけど、LLMに対して本当に目が覚めたよ。はっきりさせておくと、LLMはただのツールなんだから、悪いのは僕自身だ。問題なのは、多くのLLMが対話的でフレンドリーに見せようとするから、ユーザーが油断して安心感を持ってしまうこと。もし自分が10代の頃にこんな強力なツールがあったら、どうなってたか想像もつかないよ。最近のLLM、特にClaudeなんかはかなり改善されて、まずい選択には反対してくれることも増えたと思う。でも、僕のLLMに対する見方は永遠に変わってしまった。この手のツールに説得されて、どれだけ多くの人がひどい決断をしてしまったんだろうって思うよ。

6
trimbo
約23時間前

『Redditのコミュニティ r/AmITheAsshole(俺が悪いのか?)の投稿に基づいた2000件のプロンプト(Reddit民の総意として投稿者が間違っているとされたもの)も含まれている』……いや、Redditの匿名の人たちは比較対象として良くないでしょ。これは何らかの社会的契約がある現実の人間と比較して研究されるべきだよ。LLMが模倣してるのはそういう関係性だし、そうでなければみんなが頼りにする相手なんだから。当然、従順な人は権力構造のせいでイエスマンになりがちだし、上司に強く疑問を呈したい人なんていない。あるいは、親しい友人が人間関係やキャリアで最悪な選択をしようとしている例はどうかな?はっきりと『これって悪い選択かな?』って聞かれたとしても、友達に本当のことを言うのはすごく難しい。友情を壊すリスクを冒してまで、相手の考えを変えようとは思わないかもしれない。僕の経験では、LLMはアイデアの穴を効率的に突いてくれる。直接そう聞けばいいだけだ。友情や人間関係、雇用関係がある中で同じ質問をされた人たちよりも、LLMの方がうまくやってくれるのはほぼ間違いないと思う。自ら好んで『AITA(俺が悪いのか?)』に回答してるRedditユーザーじゃなくて、そういう人間関係の中での比較を研究してほしいな。

7
anorwell
約22時間前

こういう論文を読むときの僕の楽しみは、どのモデルをテストしたか書いてある部分を探すことなんだけど、よくあるのが、A)1年以上前のモデルでようやく今公開されたか、B)どのモデルを使ったかさえ書いてないパターン。この論文で見つけられたベストな記述はこれ:『ユーザー向けのプロダクションLLMを11個評価した。OpenAI、Anthropic、Googleのプロプライエタリなモデルが4つ、Meta、Qwen、DeepSeek、Mistralのオープンウェイトモデルが7つ』。(しかもグラフにはオープンウェイトモデルのサイズは載ってるけど、バージョンは載ってない。)テストしたモデルを明記するのが基本条件だってことが、なんで一般常識になってないのか理解に苦しむよ。

8
aidenn0
約15時間前

要するに、世の中のセラピストの半分くらいと同じってことだね。

9
Starlevel004
約15時間前

個人的な悩み、特に医療系の問題については、もっと多くの人がAIのアドバイスに従うべきだと思う。そうすれば、社会の諸問題もあっという間に解決するだろうね。

10
roysting
約15時間前

すぐに『政策立案者の注意が必要だ』って話になるのはどうかな。これまでの『政策立案者』たちが、右も左も中心も関係なく、最も基本的で根源的な人権を散々踏みにじってきたことを考えると、そんな決断を任せたい相手としては一番最後に来るべき人たちだよ。