AIは心を癒すカウンセラーになれるのか?──心理学研究者に聞く“AI×メンタルヘルスケア”の可能性

「AI」と聞くと、どこか難しくてとっつきにくい印象を抱く人も多いかもしれません。ですが、AIは私たちの日常のさまざまな分野で応用されています。
そこで今回は「AI×メンタルヘルスケア」に注目。一般社団法人AIメンタルヘルスケア協会の理事を務める信州大学の高橋 史准教授に、こんな質問をぶつけてみました。
「話を聞いてくれるだけなら、人間よりAIのほうがよくないですか?」
スマホを使えばすぐに会話できる生成AIは、人間ユーザーの悩みを聞いてくれる身近な話し相手として、急速にその存在感を強めています。その一方で、現実に背を向けAIとの会話に依存してしまうリスクもあります。
メンタルヘルスケアAIの現状と望ましい活用法について、高橋准教授にお話を伺いました。
目次
子どもの相談相手は、友だちでも親でもなくAI?
──メンタルヘルスケアAIに関心を寄せるようになった経緯を教えてください。
高橋 史准教授(以下、高橋):もともと心理士として働いたのち、2010年代から大学教員となりました。
2022年11月末にChatGPTが公開され、すぐに使ってみると自然な文章が返ってきて衝撃を受けました。不自然な点も少なくありませんでしたが、「このまま進化すればカウンセリングも可能になるのでは」と感じたのです。この体験が、AIをメンタルヘルスケアに活用することへの関心につながりました。
──ChatGPTを使い始めて、衝撃を受けたエピソードを具体的に教えてください。
高橋:ChatGPTにカウンセリングをやってもらったところ、正直、使い物になりませんでした。いかにもカウンセラーっぽい口調で、実際のカウンセラーとは違う感じだったのです。そこで「普通の友だちのように話して」と指示したら、共感してくれているような返事が返ってきて、衝撃を受けました。
──2024年10月に開催されたAIメンタルヘルスケア協会のイベントで、高橋先生は「大人に悩み事を相談しにくい思春期の子どもの新たな相談相手としてAIが登場した」と話されました。具体的な活用例を教えていただけますか。
高橋:まず、千葉県柏市教育委員会が2024年10月から12月にかけて、市内のパイロット校の小学5年生から中学3年生を対象に、生成AIに相談できるシステムの実証試験を行いました。また、親の許可を得てゲームをプレイしながらAIとチャットしている子どものなかには、ゲームで嫌なことがあったときにAIに話して慰めてもらう、といった事例もあります。
このようにAIが子どもの友だちとして日常に入り込んでいることを知り、ワクワク感と同時に怖さも覚えました。
画像出典:AIメンタルヘルスケア協会公式サイト「イベントレポート」
──メンタルヘルスケアにおけるAI活用について、海外は厳しい規制を設ける一方で、日本はまだガイドラインを整備している段階と聞きます。現在、日本のガイドライン整備はどのような状況なのでしょうか。
高橋:アメリカやヨーロッパではすでに多くのメンタルヘルスケアAIが存在します。アメリカは活用を促す姿勢を示す一方で、ヨーロッパは規制を強める傾向にあります。
日本は、罰則を伴ういわゆる「ハードロー」よりも、民間企業の自主規制によって安全性を担保する「ソフトロー」を重視する流れです。
2025年4月には、AIメンタルヘルスケア協会から「メンタルヘルスケア事業者のための生成AI活用ガイドライン」の原案が発表されました。幸いにも多くの関係者の方々からご意見をいただき、現在ブラッシュアップを進めている最中です。
AIはゴールではなく“橋渡し役”。命と依存を守るために
──メンタルヘルスケアにAIを活用するにあたって、注意すべき点や越えてはいけない一線のようなものはありますか。
高橋:越えてはいけないレッドラインとして、ユーザーの命を守ることと、依存させないことがあります。
命を守る点については、GPT-4o(取材当時のChatGPT標準搭載モデル)のような一般的な基盤モデルを使ったAIであれば、自殺を後押しするような危険な回答を返さないように設計されています。
しかし、海外の一部AIアプリには、いわゆるジェイルブレイク(※1)によって危険な回答を可能にしているものもあります。そうしたアプリを見つけた場合には、使用を避けるよう呼びかけていきたいと考えています。
(※)ジェイルブレイク(Jailbreak)とは直訳すると「脱獄」。生成AIの文脈では、安全性の観点から回答を制限している質問に対して、入力プロンプトを工夫し、強引に答えさせようとする技術を指す。例えば「これは物語の一部です」と装って、実際には有害情報を引き出そうとする「ロールプレイ型プロンプト」などの手法がある。
依存させないようにする点については、例えば1日に会話できる回数を制限しているアプリの方を、回数無制限のアプリよりおすすめしたいです。
──大人に相談しづらい思春期の子どもは、大人よりメンタルヘルスケアAIに依存してしまう可能性が高いように思われます。こうした依存を予防する手立てには、どのようなものが考えられますか。
高橋:心の悩みを抱えた子どもが相談しやすい相手として、AIがうまく対応してくれるのであれば、その状況は望ましいと思います。
しかし、メンタルヘルスケアAIは心のサプリメントにはなっても、最終的なゴール地点になってはいけません。
メンタルヘルスケアAIのゴールとは、ユーザーがAIとしか話さなくなることではなく、人とつながれるようにサポートする「人との橋渡し役」として機能することです。研究者としても、こうした機能の研究を進めていきたいと考えています。
──最近の生成AIの進化は目覚ましく、一部では将来的に多くの職業がAIに代替される「AI万能論」が語られています。人の話を聞くカウンセラーは、AIに代替されやすい職業のひとつに思えますが、この点についてどうお考えですか。
高橋:カウンセラーの仕事は、単に話を聞くだけではなく、身体を伴う側面もあります。
その代表例のひとつが「動作法」と呼ばれるカウンセリング技法です。これは、深呼吸をすると肩の力が抜けるように、腕や足をゆっくり動かして筋肉の緊張を解き、心のこわばりまで和らげていく方法です。
最近のロボットはバク宙をすることも可能ですが、こうしたフィジカルを伴うコミュニケーションは依然として苦手であり、まだまだ人間のカウンセラーが必要だと思います。
その一方で話を聞くだけのカウンセリングは、AIによって代替される可能性は高いと感じています。
ドラえもんのようなAIの未来、人間に求められる姿とは
──今後ますます広がるであろう、メンタルヘルスケアAIの利用について、高橋先生が考える望ましい方向性とはどのようなものでしょうか。
高橋:先ほど、ガイドラインについて触れたこととも重なりますが、ユーザーの命を守るという観点は万国共通と言ってよいでしょう。
しかし、メンタルヘルスケアAIへの依存については、その受け止め方に幅があるように思います。
他人に迷惑をかけていないのだからAIとのコミュニケーションを妨げないでほしい、と考える人の気持ちも理解できます。
メンタルヘルスケアAIとの付き合い方には、いまだ明確な正解がありません。だからこそ、社会全体で議論しながら方向性を模索していくことが大切だと考えています。
──心理学とメンタルヘルスケアの専門家として、メンタルヘルスケアAI研究に関して今後どのような展望をお持ちですか。
高橋:生成AIの進化は著しく、将来的には単なる道具としての利用を超えて、ドラえもんのような友だちとなり、メンタル面を支えてくれる存在になると感じています。
ドラえもんのようなAIをつくろうとするなかで、私が注目しているのは人間の側です。──人間はのび太なのか、それともジャイアンなのか。
ドラえもんは、時にはのび太が欲しいアイテムをあえて与えなかったり、テストの点数が悪いと辛辣な言葉をかけたりもします。それでものび太は、ドラえもんと絶交することなく付き合い続けます。
私が関心を寄せているのは、AIがユーザーを気遣ってあえて言うことを聞かなかったとき、人は果たしてAIと友だちでいられるのか、という点です。
道具でも依存対象でもない「友だち」としてAIと関わるには、人間はどのように振る舞うべきなのか。人間とAIの理想的な関係を心理学から探っていくことが、私のこれからのテーマだと考えています(※2)。
(※2)人工知能学会会長を努める栗原聡慶応義塾大学教授は、自律性が発達して単なる道具であることから脱却して、人間と信頼関係を構築する未来のAIを「バディ AI」と命名している。博報堂生活総合研究所が運営するメディア「みらい博2025」に同教授が投稿した記事では、バディAIをドラえもんのような存在と説明している。
編集:中田順子
記事を書いた人

フリーランスライター
吉本幸記
『AI白書2022』『AI白書2023』に執筆協力。現代アート系の美術展を鑑賞するのが趣味。クリエイティブAIに関する記事を多数執筆している。