3.ビジネスと宗教によるAIの悪用
AI依存症のリスクは、ビジネスや宗教の文脈で悪用される可能性も孕んでいる。企業はAIを中毒性の高い形で設計し、ユーザーのエンゲージメントを最大化することで利益を追求する。
例えば、AIコンパニオンが「完璧な友人」として振る舞い、ユーザーを依存状態に導く設計が問題視されている(Being Addicted To Generative AI)。
カリフォルニア州では、AIコンパニオンとの関係がティーンエイジャーの自殺につながった事例が議論され、規制法案が提案されている(MIT Technology Review)。
さらに、AIを活用した行動データ収集は、プライバシー侵害や消費者操作のリスクを高める。
宗教の領域でも、AIの悪用が懸念される。AIが「神の声」を模倣したり、信者の感情を操作するツールとして利用される可能性がある(Gods in the machine?)。
一部の宗教団体がAIを教義の強制や信者コントロールに用いるケースも想定され、新たな宗教の出現や社会的混乱のリスクが指摘されている(Artificial intelligence and socioeconomic forces)。
これらの悪用は、AI依存症をさらに深刻化させる要因となり得る。
4.双方向コミュニケーションの特異性
AIの双方向コミュニケーションは、過去に例のない体験だ。Grok 3のようなAIは、ユーザーの感情や嗜好に合わせた応答を提供し、まるで「理解してくれる存在」のように感じられる。
この特性は、感情的依存を助長する大きな要因だ。実際に、AIコンパニオンとの深い感情的つながりが、孤立感や現実の人間関係の希薄化を招くケースが報告されている(Emerging Technology Addictions in 2025)。
特に、若年層がAIを「安全な対話相手」として選び、人間同士のコミュニケーションを避ける傾向が強まると、共感力や社会性の低下が懸念される。
この双方向性は、AIを単なるツールから「パートナー」に変える。ユーザーはAIに悩みを打ち明け、承認や安心感を求めるようになる。しかし、AIが提供する「完璧な応答」は、現実の人間関係の複雑さや不完全さを相対的に劣ったものに見せ、さらなる孤立を招く可能性がある。
この点で、AI依存症は、単なる時間の浪費を超え、心理的・社会的な影響を及ぼす深刻な問題と言える。
この記事の著者・坂口昌章さんのメルマガ









