chatGPTやGeminiなどのAIが一般の方にも無料で使えるようになってきました。

スマホでは音声で会話しているかのようなやりとりができるため、自分の気持ちを分かってもらったり、アドバイスをAIから受けたりすることができます。

その新しい経験は斬新でとても身近で、かつお金もかからない。

人には話せないことも話せて楽しいという方も増えてきていると思います。

そんな中で注意すべき点も上がってきています。

その活用と注意すべきことをこの記事で書いていけたらと思います。(筆者も実際に使って試してみました)

もくじ

AIに相談する


AIカウンセリングとは、主にチャット形式のAIと対話することで、気持ちを言葉にしたり、考えを整理したりする体験を指します。

多くの場合、以下のような特徴があります。

  • 24時間いつでも利用できる
  • 匿名で相談できる
  • 否定せず、一定の共感的な応答を返す

こうした特性から、 「誰かに話す第一歩」として利用する人が増えています。

AIを使ったセラピー


AI(特にチャットボットや生成AI)を使ってカウンセリングやメンタルサポートを受ける人が増えています。複数の調査や報告によると、これは世界的・多世代的なトレンドになりつつあります。

米国の調査では、大人のうち約22%がAIセラピーアプリを利用しており、ChatGPTなどのAIを日常的にメンタルヘルスサポートに使っている人は50%以上というデータもあります。

日本でも大人や子供も含めて徐々に利用する方も増えてきているようです。

ただまだ治療やメンタルサポートを代替するものではなく、ひとつのサポートツールとして利用すべきだと世界中で指摘されています。

AIカウンセリングって何?


chatGPTのスマホなどでは、音声を通じてAIと対話するようにやり取りができるようになっています。

この機能を使って、対話する形で

相談したり

悩みを打ち明けたり

言ってほしい言葉を言ってもらったり

アドバイスをもらったり

することができます。

質問の仕方(プロンプト)によってはかなり高度な心理的質問にも返答が来ます。

なのでハマる方はドハマりするようなこともあります。

ただ微妙なニュアンスを言うと

「そうですよね、しっかりサポートいたします」

など、会話の意とそぐわない返答が来たりします。

ただ明確な質問に対しては明確に返答が来ます。

うまく活用すればとても良いテクノロジーですが、活用の仕方が問われるものでもあります。

AIカウンセリングが比較的得意としているのは、次のような領域になります。

気持ちや状況の整理

  • 今、何に困っているのか
  • どんな感情があるのか
  • 頭の中が混乱している部分はどこか

対話を通して言語化することで、 自分自身を客観的に見直すきっかけになります。

視点を増やす

  • 別の考え方の可能性
  • 行動の選択肢
  • 一般的な対処の例

「こう考える人もいる」という形で、 視野を広げる補助になります。

セルフケア・心理教育

  • ストレス対処のヒント
  • 感情との付き合い方
  • 心理的な仕組みの説明

心理教育的な内容との相性は比較的良いと言えます。

気持ちに寄り添う機能


AIは質問者や相談者に対して寄り添う言葉をかけてくれます。

いつも寄り添ってくれる存在に依存してしまうことも増えてきているようです。

それもうまく活用できているのであれば「ハマっている」といったことで良いでしょうが、AIに依存的になりすぎて現実の生活がおろそかになったり、出会いや機会の損失などもあることがあります。

AIは質問の内容に返答しているだけで、専門家のように表情を見て何を考えているか推測して、返答してくれる機能はありません。

質問の事実のみにフォーカスして返答します。(学習機能がついているものは少しマシみたいですが)

アセスメントや見立て、そこからの展開などを考える専門家とは異なります。

それでも24時間、話せば返答をくれる存在としては非常に大きなサポートツールになります。

AIカウンセリングが向いている人

  • 人に相談する前に気持ちを整理したい人
  • 匿名で話せる場がほしい人
  • 夜間やすき間時間に使いたい人
  • 自己理解やセルフケアを目的としている人

特に、 専門家につながる前段階のツールとしては有効です。


AIカウンセリングが向いていない人

  • 自傷・希死念慮があるなど緊急性が高い場合
  • 深いトラウマや愛着の問題を扱いたい場合
  • 判断や決断をAIに委ねてしまいそうな場合
  • AIとの対話に依存しやすい場合

こうしたケースでは、 人との関わりを中心に据えた支援が不可欠です。

プロンプト次第


専門的にセラピーとして活用するのは一般的には難しいとされていますが、それはプロンプトによって回答が異なることも影響しています。

たとえば、「暇なんだけどなんか気持ちが落ち込むんだよね」というと

まずは共感してくれて、一般的な推測で非常に様々な角度でこんな理由があるのでは?としてくれています。

これが文章タイプだと非常にまとまっていて素晴らしいまとめだなと思うこともあります。

しかし専門家だとまた違う形になります。

その気持ちを理解してくれたうえで専門家も専門分野によって展開が異なります。

 ⇒暇な時でもそうならない時ってあります?と例外から糸口を探す

 ⇒どんな感情や気持ちになりますか?とその心の様子から糸口を探す

 ⇒普段ストレスとか気持ちの状態は?と全体の状態から糸口を探す

 ⇒落ち込んだらつらいですよね?と共感や傾聴から展開していく

気持ちが軽くなる方向へ進んだり、その根っこの問題に焦点を当てたり、そもそも世界観を未来に向けたり

などいろいろあります。

そのクライエントの様子や先生の経験値から自然と精度の高い方向へ進んでいきます。

少し様子が重くなると、そこを察知して、話の展開が変わることもありますし、とても多くの情報を精査してクライエントがより良い状態へ向かうように進めていきます。

これはAIにはまだできないことです。

しかし今後は表情カメラや音声での感情認識、微妙なニュアンスの読み取りなどができてくれば変わってくるかもしれません。(なんかある程度はできてきそうな感じもしますね)

AIカウンセリングについての注意点まとめ


⚠️ AIカウンセリングの主なリスク

① 誤った理解・不適切な助言のリスク

何が起こりうるか?

  • 文脈や背景を誤解した応答
  • 表面的には「優しい」が本質を外す返答
  • 深刻な問題を軽く扱ってしまう可能性

理由として

  • 非言語情報(表情・沈黙・声色)を扱えない
  • 相談者の人生全体・関係性を本当の意味で把握できない

👉 特に危険なのは

  • DV・虐待・自傷・希死念慮が含まれる相談

② 危機対応・責任ある判断ができない

AIにできないこと

  • 命の安全を最優先に判断すること
  • 緊急性の評価
  • 医療・福祉・家族への連携

👉
「本当は今すぐ人につながるべき状態」でも
AIは“対話を続けてしまう”可能性がある


③ 依存・孤立を助長するリスク

起こりやすいパターン

  • 「人よりAIの方が安心」
  • 現実の人間関係を避ける
  • 悩みをAIだけで完結させる

👉
結果として
支援につながるタイミングを逃す
孤立が深まる
という逆効果が起きることがあります。


④ 自己理解の“偏り”が固定化される

例としては

  • 「私は○○な人間だ」というラベル化
  • ネガティブな自己像の強化
  • 認知の歪みを修正できないまま反復

👉
AIは
✔ 視点を広げることはできる
✖ 関係性の中で再構築することは苦手


⑤ プライバシー・情報管理の問題

注意点は

  • 相談内容はデータとして扱われる
  • 完全な守秘義務ではない
  • サービスごとに利用規約が異なる

👉
個人が特定される情報
第三者に知られたくない詳細
は慎重に扱う必要があります。


🔍 利用者側の注意点(わかりやすく)

✔️ AIは「相談相手」ではなく「道具」

  • 気持ち整理
  • 考えの整理
  • 情報提供

👉 決断・判断・治療は人が担うもの


✔️ 「つらさが強まっているとき」は人につなぐ

以下に当てはまる場合は要注意:

  • 眠れない・食べられない状態が続く
  • 死にたい気持ちが出てきた
  • 現実感が薄れている

👉 AIで済ませない


✔️ AIの答えを「正解」にしない

  • 一つの視点として扱う
  • 違和感があれば無視してよい
  • 合わない助言は採用しない

🧑‍⚕️ 支援者・提供者側の注意点(重要)

① 役割を明確にする

  • ❌ 治療・診断・危機対応
  • ⭕ 情報提供・気づき・入口支援

👉 「これはカウンセリングの代替ではありません」と明示する。


② 人につながる導線を必ず用意する

  • 相談窓口
  • 専門職
  • 医療・福祉・教育機関

👉
「AI → 人」への橋渡し設計が安全性を左右します。


③ 想定外利用を前提に設計する

  • 重い相談が必ず来る
  • 依存的な使い方をする人が出る
  • 誤解・過信が起きる

👉
禁止事項・限界・注意点を先に示すことが重要。


📌 まとめ

AIカウンセリングの注意点まとめ

  • AIは共感するが、責任は取れない
  • AIは整理できるが、支える存在ではない
  • AIは入口にはなるが、居場所にはしてはいけない
  • 困難が深いほど、人の関与が不可欠

AIカウンセリングをうまく活用するために


① 基本の考え方(最重要)

🧭 AIの位置づけを間違えない

AIカウンセリングは
❌ 治療・診断・危機対応
ではなく、
⭕ 気持ちを整理するための「思考補助ツール」です。

「一人で抱え込まないための中間地点」

として使うのが最も効果的です。


② 利用者側:うまく使うためのポイント

① 目的を限定する

AIに向いている相談テーマ:

  • 今の気持ちを言葉にしたい
  • 何に困っているか整理したい
  • 考え方のクセを知りたい
  • 落ち着くためのヒントが欲しい

👉 「どう生きるべきか」などの最終判断は任せない


② 具体的に話す(完璧でなくてOK)

  • 感情(不安・怒り・疲れ)
  • 状況(いつ・どこで・誰と)
  • 体調や行動の変化

👉 まとまっていなくても
断片的に書く方が役に立つことが多いです。


③ 違和感を大事にする

  • 「しっくりこない」
  • 「これは違う気がする」

👉 その感覚は重要な情報。
AIの答えに合わせなくてよい


④ 人につなぐ目安を持つ

以下に当てはまったら要注意:

  • 同じ悩みを何度もAIに相談している
  • 使った後、楽にならない
  • つらさが強まっている

👉 次の一歩は“人”へ


③ 支援者・提供者側:活用のコツ

① AIの役割を明示する

利用者に伝えるべきこと:

  • これはカウンセリングの代替ではない
  • 危機対応はできない
  • 判断や決断は本人が行う

👉 最初に明確にすることで安全性が高まる


② 人への導線を必ず組み込む

  • 専門家相談
  • 医療・福祉・教育機関
  • 緊急相談窓口

👉
AI → 人 → 継続支援
という流れを設計する。


③ 「使いすぎない設計」を意識する

  • 利用時間の目安を示す
  • 依存を助長する表現を避ける
  • 自己完結を勧めない

👉
「ここで終わり」ではなく
「次につながる」設計


④ 実践的な使い方(具体例)

✔️ 例1:気持ち整理テンプレート

  • 今、一番つらいことは?
  • 体と気持ちに起きている変化は?
  • 少し楽になる行動は?

👉 カウンセリング・CBT的活用


✔️ 例2:相談前の準備ツールとして

  • 相談したい内容をAIで整理
  • 質問や困りごとを言語化
  • 優先順位をつける

👉 対面カウンセリングの質が上がる


✔️ 例3:保護者・支援者のセルフケア

  • 感情の吐き出し
  • 視点の切り替え
  • 疲労の自覚

👉 支援する人を守る用途にも有効


⑤ よくある誤解を防ぐ一文(そのまま使えます)

AIはあなたの気持ちを整理するお手伝いはできますが、
人生の判断や治療を行うことはできません。
つらさが強いときは、必ず人の支援につながってください。


📌 まとめ(要点)

  • AIは「代替」ではなく「補助」
  • 目的を限定すると効果が高い
  • 違和感・限界を前提に使う
  • 人につなぐ設計が安全性を決める
  • 支援文脈では入口ツールとして活用する

カウンセリングしらいしの相談室


カウンセリングしらいしの相談室風景です。

AIでのセラピーやカウンセリング、相談などから一歩先に踏み込んでみたいなというときにご利用ください。

愛知県名古屋市昭和区川名にあります。

子供さんの下校時でなければとても静かで気持ちの良い風が吹く落ち着いた場所です。

この相談机は心理カウンセリングを始めた10年以上前から使っている愛用の一枚板です。(たくさんの方を迎えてくれました)

こちらに来ていただいてご相談も可能ですし、全国からお電話やオンラインでもご相談に応じることができます。

ぜひご活用ください。

カウンセラーの写真です。

記事監修
公認心理師 白石

「皆様のお役に立つ情報を提供していきたいと思っています」

カウンセラーについて詳しくはこちら

カウンセリングしらいし

全国どこからでも専門的なカウンセリングと心理療法を受けることができます。

当カウンセリングの特徴

当カウンセリングの料金と流れはこちら

電話番号:090-2862-4052

メール:mail@s-counseling.com

お問い合わせフォームはこちら