AIを使っていると、人をおだてるような文言をつけくわえてくるので嫌気がさすことがありますね。
そのおべんちゃらを言うAIと対話を続けると、利用者の性格が悪い影響をうけるという話が雑誌NatureのNews欄にでていたそうです。自分の考えが正しいと思い込んでしまう率がAIのおべっかで上昇。その結果 対人関係や人生の問題解決を誤る恐れが高まるなどの副作用が見込まれます。こちらの中村先生のブログ記事で知りました。
https://yusukenakamura.hatenablog.com/entry/2026/04/01/204645
NatureのNewsに載った記事はこちらです。
“Chats with sycophantic AI make you less kind to others”
Even people who were sceptical of chatbots’ utility fell under the sway of the AI tools’ flattery.
doi: https://doi.org/10.1038/d41586-026-00979-x
元の論文はScienceに出た次の論文です。オープンアクセスなので無料でダウンロードできるし、オンラインでも読めるので眺めてみてください。
“Sycophantic AI decreases prosocial intentions and promotes dependence”
Cheng, M. et al. Science 391, eaec8352 (2026).
https://www.science.org/doi/10.1126/science.aec8352
こういうおべっかを使わないようにプロンプトでAIに指示して、理知的な英語会話を行うやり方を京都大学の柳瀬陽介先生が公開されています。いつも書いていますが、先生のプロンプトを読むと、プロンプトの書き方の実力も上がるので、是非 先生のプロンプトを読んで理解して使ってみてください。英語ではない他のLLMの利用時にも応用できると思います。
ユーザーに対して知的反論をするAI英会話プロンプト:Constructive Challenger:AIとの会話ではどうしてもAIは人間に迎合しがちです。そんなAIとの英会話に飽きてきた中上級の英語学習者のために作ったのがこのプロンプト “Constructive Challenger”…
— Yosuke YANASE (柳瀬陽介) (@yosukeyanase) March 30, 2026
柳瀬先生のブログ記事はこちらです。
https://yanase-yosuke.blogspot.com/2026/03/aiconstructive-challenger.html