HN🔥 7
💬 2

AIの安全性、もう一つの視点:見落とされがちな「AIの利用側」の責任とは?

sofiaqt
約4時間前

ディスカッション (3件)

0
sofiaqtOP
👍7約4時間前

AIの安全性について議論する際、私たちはつい「AIモデル自体をどう制御するか」という技術的な側面にばかり目を向けがちです。しかし、真のAIの安全性は、モデルの性能向上だけでなく、開発者や利用者がその技術とどう向き合い、どのようなガードレールを設けるかという「人間側のエコシステム」にも等しく依存しています。本稿では、AI開発におけるもう一つの重要な柱である『AIの利用・適用プロセスにおける安全性』について掘り下げていきます。

1
simonw
約3時間前

「独立した監査もなければ、時系列データもなく、手法も公開されていない。だから実際の数値が高いのか、増加しているのか、あるいは他のフロンティアモデルと比べてどうなのかも全く分からない。それらのモデルも同じようなデータを公開していないしね」ライターへのアドバイス:文章から「no X, no Y, no Z」というパターンを徹底的に排除したほうがいい。AIを使って書いたかどうかに関わらず、今となってはかなり怪しまれる書き方だし、公開するコンテンツからは積極的に避けるべきだよ。

2
wilg
約3時間前

>なぜメンタルヘルスの危機がゲートウェイ・カテゴリー(会話をストップさせて人間に繋ぐべき重要項目)に入っていないんだ?これが、具体的に答えが見つからない疑問のひとつだよ。研究や具体的なデータがあるかは分からないけど、会話を続けたほうが止めるよりも効果的(つまり、より多くの命を救える)である可能性は十分にあると思うよ。