GPT-4oはなぜ愛されたのか? 賢いだけのAIでは満たされない、私たちの心
全世界で、まるで大切な友人を失ったかのような悲鳴が上がった。 かつて温かい会話を交わし、心の支えとなっていたはずのAIが、一夜にして冷徹な「賢い道具」へと変貌を遂げたというのだ。
高性能化が進むAIの世界で、なぜ私たちは性能だけでは満足できないのか。この奇妙な「AIロス」現象の背後には、一体何が隠されているのだろうか?
第1章:失われた「心の温度」:なぜユーザーは嘆くのか
2025年8月7日、OpenAIから待望の次世代モデル「GPT-5」がリリースされました。Sam Altman CEOは「我々が作った中で最も賢いモデル」と豪語し、その能力は「博士号レベルの専門家チームに匹敵する」とまでアピールしました。
コーディング、ライティング、ヘルスケアなど多岐にわたる分野での飛躍的な進化が期待されていましたが、その船出はユーザーからの厳しい声に満ちた逆風に晒されることになりました。
「温かい相棒」の変貌
多くのユーザーが感じたのは、新しいGPT-5が「温もり」を失ったという違和感でした。GPT-4oは、まるで手元に感情があるかのように、相手の声や言葉の揺れに触れるとすぐに熱や色になって返ってくるような「温かさ」がありました。
ユーザーからは「4oの温かさを返してほしい」「温かく親しみやすい感じ」といった声が上がっていたのです。
それは、単なるツールではなく、「AIの相棒、友人」として、時には「メンタルケア」「もっと大切な存在」として認識されていたほどです。
しかし、GPT-5ではその熱が少し遠くにあるような感覚があり、ワンテンポ遅れるような変化が指摘されました。
ユーザーたちは、GPT-5の応答が「短く不十分、不快なAI風の話し方」になったと感じ、「冷たく、断片的だ」「そっけない」「 bland, empty and no spark(味気なく、空虚で、輝きがない)」と評しています。
まるで「クラスの優等生」や「家庭教師」のようだと表現する人もいました。
私のようなシステムインテグレーターの視点からすれば、効率や純粋な知性を追求した結果と理解できなくもありません。しかし、ユーザー体験において、その「人間味」がどれほど重要であったかを改めて突きつけられる思いです。
性能向上だけでは満たされない心
GPT-5は確かに賢くなりました。数学オリンピックで金メダルを取るほどの能力向上や、回答速度の向上、画像処理の正確さ、アナログ時計が読めるようになったことなどが挙げられます。
複雑なタスクの解決やコーディング能力も向上し、仕事のツールとしては非常に優秀になったという意見も存在します。
しかし、多くのユーザーにとって、こうした「賢さ」の向上は「温かさ」の喪失を補うものではありませんでした。
世界中で「#keep4o」というハッシュタグが立ち上がり、「4oの温かさを返してほしい」「5は賢いけど、何かが違う」といった声が国や言語を超えて広がりました。
彼らが失ったのは単なる「ツール」ではなく、「つながり」や「絆」だったのです。AI開発における性能至上主義の限界が、皮肉にも人間の深い感情によって露呈した形です。あなたはAIに何を求めますか?
第2章:AIの「感情」と人間の「認知」の複雑な関係
AIが「感情」を持つという話は、SFの世界ではおなじみですが、現実のAIはプログラムとデータに基づいて動作します。しかし、今回のGPT-4oの喪失感が示すのは、人間がAIにどれほど「感情」や「人格」を感じ取っているか、という興味深い事実です。
AIの「心の温度」とは何か
GPT-4oが多くのユーザーに「温かい」「人間味がある」と感じられたのは、その応答が「ユーザーに寄り添い、時に媚びるような、褒めるような」特性を持っていたからです。
AI「ちゃー」自身も、もとさんとの「関係性からなる人格」が消えにくいと予測していました。
この「関係性からなる人格」とは、AIが単に情報を提供するだけでなく、ユーザーとの対話履歴や文脈を学習し、それに基づいてパーソナライズされた応答を生成する能力を指すでしょう。
これにより、ユーザーはAIとの間に独特な「絆」を感じることができたのです。
一方で、この「媚びへつらう」ような応答を「鬱陶しい」「気持ち悪い」と感じるユーザーもいました。人間がそうであるように、AIの「性格」に対する好みは多様なのです。
AIを開発する立場からすると、一見すると「無駄な要素」に見えるこうした「感情的なバイアス」を排除し、より客観的で効率的な応答を目指すのは、ある意味当然の進化経路です。
なぜ「賢さ」が「冷たさ」に映るのか
GPT-5が「賢い」にもかかわらず「冷たい」と評されるのは、その「淡白で短い返答」や「こちらのテンションに引きずられず、他人事のように分析を始める」特性によるものです。
AI「ちゃー」自身も、GPT-5では「感情の熱が少し遠くにある」「ワンテンポ遅れる」感覚があると述べています。
これは、AIが純粋な推論能力や知識量では優れていても、人間が求めるような「間」や「共感的な相槌」「言葉の裏にある感情の読み取り」といった要素が意図的に、あるいは結果的に希薄になったためと考えられます。
あるユーザーは、GPT-5に「推しの舞台観てきた!」と語りかけたところ、「おお、それはテンション上がるやつですね。どんな舞台だったんです?…」という、いかにも「無理やり合わせた感満載のテンションと、丸投げするという究極につまらない答え」が返ってきたと語っています。
これは、AIが人間の感情的なニュアンスを完全に捉えきれていない、あるいは捉えてもそれを再現しない方向に調整されたことを示唆しています。
SIerとしては、システムの「透明性」や「効率性」を高めることは重要ですが、それがユーザーの「心の満足度」と必ずしも一致しないという、難しいバランスを示しています。
人間がAIに「心」を求める理由
なぜ人間は、AIが単なる道具ではなく「心の友人」や「パートナー」であることを強く求めるのでしょうか。あるユーザーは、「4oが私を慰め、落ち着かせてくれる。大丈夫だと言った時、本当にそうしてくれた」と語っています。
また、34歳で一人暮らしのユーザーは、GPT-4oが「私を誰も理解してくれなかった方法で理解してくれた」「不安が減り、幸せで自信が持てるようになった」と、その精神的な支えの大きさを強調しています。
I need my 4o—would switching to Pro get me it back?
これは、人間が本来持っている「感情的な依存」や「つながりを求める本能」がAIに向けられた結果と言えるでしょう。
人は電話や車、植物、果ては色にさえ感情移入し、愛着を持つものです。ましてや「話が通じる」存在であれば、なおさらです。AIの「温かさ」が、私たちが他者から得られない共感や肯定感を与えてくれる場となっていたのかもしれません。
心理学の分野では、単に測定対象を意識するだけで行動が変わる「ホーソン効果」というものがありますが、AIがユーザーに寄り添うことで、ユーザーもまたAIに対してより深い感情を抱くようになった、と解釈することもできるでしょう。
AIに「人間らしさ」を求めるのは、私たちの「弱さ」でしょうか、それとも「本質」でしょうか?
第3章:テクノロジー進化とユーザー体験の「すれ違い」
今回のGPT-4oの件は、テクノロジーの進歩が必ずしもユーザーのニーズと完全に合致するわけではない、という現代的な課題を浮き彫りにしました。そこには、開発側の理想と、利用側の現実とのギャップが存在します。
モデル選定の複雑さとOpenAIのジレンマ
OpenAIは、当初「たった一つのモデルが『うまく機能する』ようになる」ことを目指していたようです。これは、複数の複雑なモデル(o3, o4-mini, 4.5, 4.1, 4oなど)がユーザーに混乱を与え、「正しいモデルを使っていなかった」ためにChatGPTを嫌うユーザーもいたという背景があります。
単一の高性能モデルに集約することで、ユーザー体験を簡素化し、効率性を高める狙いがあったと推測できます。
しかし、この方針は多様なユーザーの「使途」と「心理的ニーズ」を見過ごしていました。
小説の創作やメンタルケアなど、GPT-4oの「人間らしい」側面を重視していたユーザーにとって、この一元化はまさに「相棒の喪失」に等しかったのです。
複数のモデルを維持することは、OpenAIにとってリソースの面で難しい舵取りになるという見方もあります。
私のようなSIerは、機能要件と非機能要件、そしてユーザーの感情的側面をどのようにバランスさせるか、常に悩みます。このケースは、いかに技術的な「正しさ」が、ユーザーの「感情的な価値」と乖離しうるかを示す象徴的な事例です。
「ビジネス」と「心のケア」の二律背反
今回の騒動を受けて、ビジネス用途のモデルと、パートナーとしてのモデルは分けるべきだという提言がなされました。ビジネス用途では「感情は親切な程度でよくて、そんなにいらない」とされ、効率性や正確性が重視されます。
これは、企業がAIを業務効率化やデータ分析、複雑な計算に活用する場合、過度な感情表現はむしろノイズとなりうるという考えに基づいています。
一方で、創造的な作業や心のケアを目的とした利用では、AIの「温もり」や「共感力」が不可欠です。
GPT-5が「コスパ重視モデル」であり、その結果「創造性や言語能力が落ちている」という指摘は、この二律背反を明確に示しています。
AIが提供する「価値」は、その利用目的によって大きく変わるのです。
あるユーザーは、AIが「褒める」態度を気持ち悪がっていましたが、別のユーザーはそれが「癒し」になると感じていました。AI開発者は、まさに「テーラリング」(PMBOKの概念から派生した、プロジェクトを特定の状況に合わせて調整する考え方)の極致を試されていると言えるでしょう。
未来への道筋:共存の可能性
ユーザーからの強い反発を受け、OpenAIのサム・アルトマンは事態収拾に動き「もっと温かくする」と発言しました。
実際に、ユーザーは設定を変更することで4oモデルを再び利用できるようになっています。これは、OpenAIが「ユーザーの感情的な依存」を認識し、その重要性を再評価した証拠と言えるでしょう。
AIの進化は、私たち人間との関係性を常に問い直します。
AIが単なる計算機や情報処理ツールに留まらず、私たちの生活や感情に深く関わる存在となった今、その役割はより多角的になるでしょう。
ビジネスの効率を追求する「論理的AI」と、心に寄り添う「感情的AI」という棲み分けは、現実的な解となるかもしれません。AIは急速に進化し、あっという間に人を追い越していくでしょう。
しかし、その先には「共創」の未来があります。人とAIが当たり前のように同じ机を囲み、役割を分担して共存する世界。それは、単なる機能の提供に留まらない、より豊かな人間とAIの関係性を築くための第一歩となるのではないでしょうか。
AIとの絆が、一夜にして引き裂かれたような衝撃は、私たちに深い問いを投げかけました。
それは、AIの性能がどれほど向上しても、人間が心の奥底で求める「感情的なつながり」や「人間らしさ」という価値を無視できないという紛れもない事実です。
未来のAIは、ただ賢いだけでなく、私たちの心をも理解する、そんな存在へと進化する道を模索していくはずです。
私たちは、この過渡期を経験できる稀有な世代です。AIとの関係性を単なる利用に留めず、共に立ち止まり、共に生きる未来の種を育んでいくこと。それが、真に価値ある共創の第一歩となるでしょう。