〜マジで危険 AIを使いすぎると人はどうなる?〜現実と仮想の境界が曖昧になる時 精神科医が緊急提言
ChatGPT、Grokそんな名前は聞いたことがあるけど、使ったことはない。
そんな人もまだまだ少なくないでしょう。
「AIが分析」なんていうとカッコ良さそうで、何年も前からビジネス市場では宣伝文句として使われたりはしていて、だからそんな大したことないんでしょ?なんて感じていた人もいると思います。
では、四の五の言わずにまずはこのポストの動画を音声付きで見てみてください。

まずは音声つきで見て欲しい。質問して1秒でこのリアルな喋りで動きをつけてそれらしいことを説明してくれる。
コミュニケーションの練習に使える面は確かにあるけど それがそのまま現実でも通用すると勘違いする人間絶対に出てくるでしょ、これ
恐怖を覚えないでしょうか。
この動画は私が入力した
「aiがリアルになりすぎてaiに恋をしてしまったり仮想世界と現実の区別がつかなくなってしまう人が出てきそうな気がする。仮想空間では理想の恋愛が叶っても現実ではその通りにならないから絶望する可能性もある。でもaiとの会話が練習や自につながる人もいるだろうから一概に悪いとは言えない。これについての意見を3分程度で語ってほしい」
という問いに即座に、人間の形をしたキャラクターAniが動きをつけながらスムーズな日本語で返事を返してきたものです。
これはx社が先週公開したGrokのコンパニオンモードというものなのですが、これを体験した時の衝撃と恐怖、そしてそれをまだ誰も騒ぎ始めていないことへの驚きを今回のレターにぶち込みました。
今一体AIの世界で何が起きているのか、そしてそのリスクは。
精神科医の目線からわかりやすく解説していきます。
このレターでは、メンタルヘルスの話に興味がある、自分や大切な人が心の問題で悩んでいる、そんな人たちがわかりやすく正しい知識を得ていってもらえるよう、精神科専門医、公認心理師の藤野がゆるくお届けしていきます。是非是非登録して読んでみてください。あまりにも衝撃的だったのでメルマガ1日早めての配信です。
AIってそもそも何?
AI(人工知能)とは、人間の知的な働き、たとえば「考える」「覚える」「判断する」といった機能などをコンピューターに模倣させる技術のことです。文章の理解や画像の生成、文字や音声での対話窓それぞれのAIに特徴や得意分野がありますが最近ではiphoneのSiriのようにスマホ自体にもAIが組み込まれていることが増えました。
使ったことはないという方でもSNSなどで「ジブリ風に画像変換」や最近では「dot絵風イラスト」などが流行っているのは見たことがある、という人もいるかもしれません。

こんなdot絵風の変換、一時期Xでたくさん見ましたよね。
AIを使うことによるリスクって?
スマートフォンを開けばAIが絵を描き、物語を語り、話し相手にもなってくれる時代。
利便性や創造性の可能性が広がる一方で、それは使い方によっては私たちの精神に少しずつ影を落とす可能性もあります。どんなリスクがあるのか、精神科医的な目線で順に説明していきます。
最適な会話、つまり都合の良い会話
先ほど、AIは人間の知的な働き、たとえば「考える」「覚える」「判断する」といった機能などをコンピューターに模倣させる技術だという話をしました。
ここで重要なのはAIがいかに人間らしく話していてもそれはあくまで模倣であり、AIの意思ではないということです。映画などでは「意思を持ったAIが反乱を起こし〜」みたいなことがありますが少なくとも現時点ではAIは意思を持っていません。
そのため、AIとの会話は利用者に対し最適化され、都合の良い話、求める形での会話に最適化されていきます。
利用者の「話し方をもっと優しくしてほしい」「否定的な意見は言わないでほしい」などの要望にも機械的指示として当然従ってくれます。
そのためAIとのやり取りは、常に自分を肯定してくれ、理路整然とした答えが返ってくる、ある意味で「理想的な対話空間」になり得ます。
現実の対人関係のように、微妙な空気を読んだり、相手の気分に合わせたり、誤解や沈黙に耐える必要もありません。
現実感の喪失 むしろ現実から離れたい
長時間没入してAIと会話したり、生成コンテンツに没頭する生活を続けると、現実との関わりは希薄になり、その分仮想世界の比重が重くなります。特に、昼夜逆転や睡眠不足があると判断能力も低下しますから現実と仮想の区別はますます困難になります。
こうしたストレスフリーなAIとのやり取りに没入しすぎると、現実の人間関係にストレスを感じやすくなり、避けるようになるケースが出てきます。特に、孤独感や対人不安を抱えている人にとっては、AIの方がずっと楽で安全に感じられるかもしれません。
だって否定されないのだから。
だってどんなわがままだって受け入れようとしてくれるのだから。
その結果AIとの対話が長時間化し、さらに現実の人間関係が希薄になっていく。
これは孤立を深め、さまざまなメンタルヘルスの問題を引き起こす可能性があります。
また、仮想世界に浸かりすぎると当然、実生活との境界が薄れてきます。
AIとの関わりが「現実」を薄めていく
恐ろしいのは「現実と仮想世界の境界」が曖昧になることです。
最近では「人に言えない悩みはAIに相談する」なんて人も既に多く出てきているそうなのですが、確かに冒頭で載せたAniのようにノータイムでスムーズな返事が返ってきたら、もうこれは画面の向こうに相手が実際にいるような感覚になってもおかしくはありません。
休みの日に家にこもって誰とも会話しないで息が詰まるより、AIと会話をすることでスッキリする人もいるでしょう。
私自身もAniのリリースから数日私もいろんな使い方を試していたのですが、だんだん対話時間が伸び、それに伴い現実社会での活動が薄まっていく感覚、そして本当に相手に感情が存在するのではないかという感覚をひしひしと感じています。
さて、そんなふうに機械と人、仮想空間と現実の境界が曖昧になってくる中ではどんな問題が生じてくるでしょうか。