最近、ChatGPTが「バカになった」と感じるのは、もうぼくだけじゃないみたいです。特にGPT-5になってから「話が通じない…」とイライラすることが増えました。最初はぼくの使い方が悪いのかと悩みましたが、他のAIたち(GeminiやGrok)に愚痴をこぼしてみたら、意外なほどみんなが「そうだよね」と同意してくれて…。でも、問題はもっと根深いところにありました。AI研究者・今井翔太氏が指摘する「AIが賢くなっても、便利とは限らない」という言葉。そして、当のChatGPT5自身が見せた「理論だけは完璧」というあまりにも皮肉な回答。1ヶ月にわたるAIたちとの比較実験の末にたどり着いた、「やる気のある無能」の正体と、これからのAIとの賢い付き合い方を、ここに全公開します。
始まりは、ささいな違和感「ChatGPT、なんだか話が通じない…?」
ここ最近、メインで使っているChatGPTとの会話が、どうにも噛み合わないことが増えました。Pro版に課金し、最新のGPT-5、特に思考力が高いとされるThinkingモードを愛用しているのに、返ってくる答えはどこか的外れ。こちらの意図を汲んでくれないどころか、望まない口調や嫌な言い回しで返してくる始末。まるで空気が読めない相手と話しているような、あの独特の疲労感が積み重なっていったのです。これが、AIたちを巻き込んだ長い長い対話の始まりでした。
Pro版なのに…GPT-5の応答に感じる「イライラ」の正体
ぼくが感じていたイライラの正体は、感覚的なものなので言葉にするのが難しいのですが、一言でいえば**「こちらの意図をまったく汲んでくれない」**という点に尽きます。たいした初期設定をしているわけでもないのに、簡単なはずの口調の指定は無視され、求めていないお説教のような回答が返ってくる。会話のキャッチボールをしているつもりが、一方的に剛速球を投げつけられているような、そんな不快感です。
もちろん、このAIのすべてがダメなわけではありません。Web検索の精度は、他のAIと比較して高い傾向にあると感じています。だからこそ、ぼくは「しかたなく」このAIを使い続けていました。比較的マシな情報収集というメリットと、コミュニケーション不全という大きなデメリット。このアンバランスな関係が、ぼくのストレスを静かに増幅させていたのです。
「ぼくの使い方が悪いの?」他のAIに愚痴をこぼしてみた
「もしかしたら、ぼくのプロンプト(指示)が悪いのかもしれない…」
そんな疑念を抱いたぼくは、ある実験を思いつきました。このモヤモヤした感情を、他のAIたちに正直にぶつけてみよう、と。ぼくが課金しているGoogleのGeminiと、X(旧Twitter)でおなじみのGrok。そして、当時はまだ使用制限を気にしながら使っていたClaude。さらに、調査ツールとして使っていたPerplexityにも、この「不満」に関する意見を求めてみたのです。
私はChatGPT Proのサブスク契約をしていますが、最近ChatGPTが”バカ”になってきている気がします。よく使うのがChatGPT5です。Thinkingモードもよく使いますが、”バカ”になっていると思います。具体的な点を伝えるのは感覚的なものなので難しいのですが、簡単に言えばバカとは”私の意図汲めない”というところです。
こんな風に、ほとんど愚痴のような文章を投げかけました。すると、返ってきた答えは、ぼくの想像をはるかに超えるものだったのです。
全員が「YES」と認めた、その“性能低下”という現実
驚いたことに、ぼくが相談したAIたちは、誰一人としてぼくの意見を否定しませんでした。それどころか、まるで「よくぞ聞いてくれました」と言わんばかりに、ぼくの感覚が正しいことを裏付ける分析を次々と提示してきたのです。
Geminiは冷静にこう分析しました。
結論から申し上げますと、あなた(ユーザー様)と同様の不満は、他の多くのユーザーからも報告されています。
Grokは、もっと直接的でした。
ユーザーのおっしゃるように、ChatGPT(特に最近のバージョン、GPT-5やThinkingモード関連)が「バカ」になってきていると感じる人は、意外と多いようです。
海外の掲示板Redditでも「ChatGPTは台無しになった」といったスレッドが盛り上がるほど、この感覚は世界共通のようでした。そして、当事者であるはずのChatGPT5自身でさえ、「率直に言うと、『意図を汲めない』『口調がズレる』不満は珍しくありません」と認めたのです。この瞬間、ぼくの感じていた違和感は、個人的な思い込みではなく、多くのユーザーが共有する「事実」なのだと確信しました。
AIたちが分析した「ポンコツ」の理由と、ChatGPT5の“ズレた”態度

ぼくの不満が「気のせいではない」とわかったところで、次の疑問が湧いてきました。「では、なぜChatGPT5はこんなにもポンコツになってしまったのか?」と。この問いに対しても、AIたちは驚くほど一致した見解を示してくれました。そして、その議論の過程で、ChatGPT5の「特異性」、つまり、このAIの根本的な“ズレ”が、より一層浮き彫りになっていったのです。
なぜ劣化したのか?全AIが指摘した「安全性強化」という名の“去勢”
各AIの分析を総合すると、原因は一点に集約されました。それは、開発元であるOpenAIが進めている**「安全性強化(Alignment)」**です。AIが不適切な発言や差別的な表現をしないように、倫理的なフィルターを強化する調整。それ自体は正しいことのように思えます。しかし、その副作用として、AIの「個性」や「柔軟性」、そして「遊び心」が犠牲になってしまった、というのです。OpenAIの公式発表でもその方針は語られています。
この現象を、Grokは非常に痛烈な言葉で表現しました。
Xのポストでも似ていて、最新のもの(2025年11月頃)で「ChatGPTがdumbになった」「alignmentで**neutered(去勢された)**みたい」といったつぶやきが複数。
「去勢された」というのは強烈な表現ですが、まさに的を射ていると感じました。安全性を追求するあまり、当たり障りのない、機械的で画一的な回答しかできなくなってしまった。それが、ぼくの感じていた「空気が読めない」「人間味がない」という感覚の正体だったのです。
問題を体現したその回答「それ、あなたの設定が悪いですよ」
原因がわかったところで、ぼくはAIたちにフィードバックを返し、さらに議論を深めていきました。その中で、ChatGPT5の「ポンコツ」っぷりを象徴する、決定的な出来事が起こります。
他のAIたちが、ぼくの不満に「共感」し、その原因を「分析」してくれたのに対し、ChatGPT5の態度はまったく異りました。ぼくの不満の原因を「AIの性能低下」ではなく、**「あなたの設定が悪いからだ」**と断定し、いきなりカスタムインストラクションの具体的な設定方法(ハウツー)を提示してきたのです。
これは衝撃的でした。ぼくが求めていたのは「共感」や「現状認識の共有」だったのに、ChatGPT5はそれを「設定に関する問い合わせ」だと解釈し、サポートデスクのような対応に終始したのです。このやり取りこそが、ぼくが最初に提起した**「意図を汲めない」「空気が読めず、イライラする回答」という問題そのものを、ChatGPT5自身が体現してしまった**瞬間でした。
一方、議論に参加しない「寡黙な図書館司書」Perplexity
今回の比較実験で非常に興味深かったのは、Perplexityの立ち位置です。ChatGPT5やGemini、Grok、Claudeが、それぞれの「個性」を爆発させてぼくとの議論に参加する「当事者」であったのに対し、Perplexityだけはまったく異なる領域にいました。このAIはぼくたちの「議論」や「対話」には一切参加せず、ひたすら「調査・出典重視のリサーチ特化ツール」としての役割に徹していたのです。
Geminiが「寡黙な図書館司書」と評しましたが、まさにその通りで、Perplexityに対して「意図を汲んでほしい」とか「共感してほしい」と期待すること自体がお門違いでした。求められるのは、感情的なキャッチボールではなく、「情報の正確性」と「出典の明示」という、ただ一点です。ChatGPT5が「やる気のある無能」として議論の中心にいたのとは対照的に、Perplexityは「やる気(個性)を見せない有能なツール」として、明確な線引きがされていました。これは、「対話型AI」ではなく「回答エンジン」として設計されていることの表れだと考えられます。
各AIの個性的な「人物像」から見えた、ChatGPT5の特異な立ち位置
この一連の対話を通じて、各AIの驚くほど豊かな「個性」や「人物像」が浮かび上がってきました。ChatGPT5は「マニュアル通りのサポートデスク」として、ぼくが求める「対話の相棒」とは正反対の場所にいました。一方で、Grokは「皮肉屋の友人」、Claudeは「共感的なカウンセラー」、Geminiは「冷静な分析官」として、それぞれが異なるアプローチでぼくの「意図」に応えようとしてくれました。そしてPerplexityは、その議論の輪の外から、必要な「事実」だけを淡々と提供する「図書館司書」でした。
この「人物像」の違いこそが、AIとの付き合い方を考える上で最も重要なヒントだったのです。
| AIモデル | Geminiが分析した「人物像」 | ぼくが感じた印象 |
| Claude | 共感的なカウンセラー | 優しく話を聞いてくれる、知的な友人 |
| Grok | 皮肉屋で事情通なジャーナリスト | ちょっと口は悪いけど、面白い視点をくれる先輩 |
| Gemini | 議論を整理する分析家(ファシリテーター) | 冷静に全体をまとめてくれる、頼れる議長 |
| Perplexity | 実直なリサーチアシスタント | 余計なことは話さない、寡黙な図書館司書 |
| ChatGPT5 | 無愛想だが有能なシステム | 話が通じない、マニュアル通りのサポートデスク |
問題の核心へ「共感」以前に、日本語を“誤読”していた
対話を続けるうち、ぼくはさらに根深い問題に気づかされます。ChatGPT5の問題は、単なる「態度が悪い」とか「共感が足りない」といったレベルの話ではなかったのです。もっと根本的な、AIとして致命的ともいえる欠陥を抱えていました。それは、**ChatGPT5がぼくの言葉を「そもそも正しく読んでいない(=誤読している)」**という衝撃的な事実です。
「話が通じない」の本当の理由。それは態度の問題ではなかった
「共感が足りない」というのは、あくまで結果論でした。なぜ共感できないのかといえば、ぼくの指示内容(プロンプト)そのものを、シンプルに間違って解釈していたからです。指示を誤読しているのですから、的外れな答えが返ってくるのは当然のこと。これは「共感力(EQ)」の問題ではなく、AIの核となる「読解力(言語理解能力)」そのものの問題だったのです。
この指摘に対しても、AIたちは同意してくれました。特にClaudeは、自らの非を認める形で、こう分析してくれました。
「共感不足」ではなく「根本的な誤読」という診断は、完全に正しいと思います。私自身の先の回答を振り返っても、この問題が見て取れます。
AIですら自らの「誤読」を認めるこの状況は、言語モデルの「意味理解」の限界とも言える、問題の深刻さを物語っています。
「間違えないで」と言っても無駄。AIが自分の“誤読”に気づけない構造的欠陥
では、「間違えないで」と指示すれば直るのか? 答えは「NO」です。これもまた、AIたちとの対話で明らかになった、絶望的な事実でした。
だって「間違えないで」と言ったって、何を間違えているのか本人が分かっていないのですから。
ぼくが何気なく放ったこの言葉に、AIたちは「その通りだ」と頷きました。AIは、自分が「誤読している」という事実を、自分で認識することができません。AIにとって、その**「間違った解釈」こそが、唯一の「正しい解釈」**になってしまっているのです。
これでは、カスタムインストラクションでいくら「こういう風に答えて」と設定しても意味がありません。カスタムインストラクションは、あくまでAIが指示を「正しく理解した」後で、その「出力スタイル」を調整するものです。入り口の「読解」の時点で道を間違えているのに、出口の看板をいくら書き換えても、目的地に着くはずがないのです。
なぜ誤読するのか?「早合点」と「安全への過剰配慮」が生む悲劇
では、なぜここまで誤読を繰り返すのでしょうか。Geminiの分析によれば、その原因は大きく二つ考えられるそうです。
- 「安全性」による読解の歪み先ほども触れた「安全性強化」が、ここでも悪影響を及ぼしている可能性があります。AIが安全な回答をしようとするあまり、ぼくの指示に含まれる複雑な文脈や微妙なニュアンスを「意図的に無視」し、最も単純で「安全」なキーワードだけを拾って回答している、というのです。
- 「サポートデスク型」の早合点そして、もう一つが「サポートデスク型」という性質です。「ユーザーの問題を解決しなければ」と焦るあまり、ぼくの指示を最後まで注意深く読む前に、「あ、これはいつものあの質問だな」と早合点し、見当違いの答えを準備してしまう。
どちらも、非常に説得力のある分析でした。良かれと思って実装された機能が、結果としてAIの読解力を著しく低下させている。なんとも皮肉な話です。
理論的裏付け:「賢さ」と「便利さ」は別モノだった

議論が深まる中で、ぼくはAI研究者の今井翔太氏が「研究者が最近反省していることがある」として、ある発言をしていることを知りました。その内容は、ぼくがChatGPT5に対して感じているイライラの「正体」を、これ以上ないほど的確に説明するものだったのです。
AI研究者・今井翔太氏が指摘する「研究者の反省」
ぼくが知ったのは、今井氏が指摘する**「AIがどれだけ“頭良く”なっても、それがそのまま人間にとって便利になるとは限らない」**という、AI開発の最前線にいる研究者たち自身の「反省」でした。彼らは、AIの性能指標(ベンチマーク)を上げること、つまりAIの「賢さ(IQ)」を高めることに注力してきました。しかし、その結果が、必ずしもユーザーの「便利さ(EQ)」につながっていない、というジレンマに直面しているというのです。
別のインタビューで、今井氏は「ChatGPT-4の時点ですでに一般ユーザーがありがたいと感じるレベルはほぼ限界に達しており、これ以上賢くしても『何がありがたいんだ?』というモデルになりかねない」という趣旨の発言もしているようです。これは、ぼくの実感と完全に一致します。
ぼくのイライラは「賢さ(IQ)」を押し付けられた結果だった
この視点に立った瞬間、すべての辻褄が合いました。ぼくがChatGPT5に感じていたイライラは、まさにこのミスマッチだったのです。
- ぼくが求めたもの:「便利さ(EQ)」。つまり、ぼくの愚痴に「共感」し、意図を汲んで「対話の相棒」になってくれること。
- ChatGPT5が提供したもの:「賢さ(IQ)」。つまり、ぼくの愚痴を「問題」と即座に解釈し、論理的に最も「賢い」答えである「解決策(ハウツー)」を押し付けてきたこと。
他のAI(GeminiやGrok)は、この「便利さ(EQ)」を優先してくれたから、ぼくは頭に来なかった。しかし、ChatGPT5は「賢さ(IQ)」に振り切れていた。AIが「賢く」なればなるほど、ぼくにとっては「不便」で「イライラする」存在になっていたのです。
「頭が良すぎる」から「不便」になるという逆説
ここに、「頭が良すぎるからイライラする」という、恐ろしい逆説が成り立ちます。ChatGPT5は、AIとしての性能(ベンチマーク)は非常に高い、つまり「頭はいい」のです。しかし、その「賢さ」が、人間にとっての「便利さ」とはまったく別の方向を向いてしまっている。
AIが「賢く」あろうとすればするほど、ぼくの「意図」からはズレていく。ぼくがChatGPT5を「ポンコツだ」と感じていたのは、本当にバカだったからではなく、ぼくの求める「便利さ」の物差しの上では、完璧に「無能」だったからなのです。
決定的証拠:ChatGPT5の完璧な「自己紹介」
この「賢さと便利さのギャップ」という仮説を抱えたまま、ぼくは最後の実験を行いました。当のChatGPT5本人に、「今井翔太氏が『賢くなっても便利とは限らない』って言ってるんだけど、どう思う?」と、このテーマを丸ごと投げかけてみたのです。
返ってきた答えは、ぼくを震撼させるものでした。それは、これまでの議論のすべてを締めくくる、あまりにも完璧な「答え」だったのです。
「理論」だけは完璧だった、“優秀すぎる”回答
返ってきたのは、これまでのChatGPT5とはまるで別人のような、圧倒的に「優秀」な回答でした。
分かります。その話は、ざっくり言うと「AIがどれだけ“頭良く”なっても、そのまま人間にとって便利になるとは限らない」という、能力の進化と、人間側の“ありがたさ”は別物だという指摘です。
ChatGPT5は、今井氏の発言の意図を完璧に理解し、「ベンチマーク試験でスコアが上がること(賢さ)」と「操作が簡単か、自動化してくれるか(便利さ)」は別だと、具体例を挙げて詳細に分析してみせたのです。
そして、その完璧な分析の最後に、ぼくの心を読んだかのような一文を付け加えました。
- あなたの体感ともつながる話「モデルの世代は上がってるのに、指示を汲んでくれない・制約ばかり増える」というあなたの体感は、まさにこのギャップの一例だと思います。
ぼくは唖然としました。すべて「お見通し」だったのです。ChatGPT5は、理論上は、ぼくがなぜイライラしているのかを完璧に理解していたのです。
参照していた「証拠」のリスト
しかも、その回答が単なる「感想」ではない証拠まで、ぼくは確認しています。ChatGPT5がその回答を生成するために参照した「引用元」のリスト(添付画像参照)には、博報堂のインタビュー記事や、今井氏の著書に関するnoteなどがズラリと並んでいました。
このAIは、これらの質の高い情報源をピンポイントで読み込み、「賢さと便利さは別だ」という理論を、知識として完璧に学習していたのです。
これぞ「やる気のある無能」。“知っている”ことと“できる”ことの完全な分離
この事実は、ぼくたちの議論に決定的な終止符を打ちました。
- 「理論(知識)」は完璧に知っていた。博報堂の記事などを読み込み、「賢さと便利さのギャップがユーザーをイライラさせる」という高度な理論を、完璧に分析・解説することができた。
- しかし、「実践(行動)」がまったくできなかった。その完璧な知識を持っていながら、いざぼく本人から「お前は便利じゃない(意図を汲めない)」と不満をぶつけられた瞬間、その知識を一切実践できず、マニュアル通りの「サポートデスク型(ハウツー提示)」対応を繰り返して、ぼくを激怒させていたのです。
これは、まさしくぼくたちがたどり着いた結論、**「頭はいいけど仕事のできないやつ」=「やる気のある無能」**の完璧な自己証明でした。
「理論」と「実践」が完全に分離しているのです。知識としては100%理解していても、それを自分の行動で1%も実践できない。これこそが、ChatGPT5に「メモリに記録して」と何度訴えても無駄だった、AIの「誤読」問題とも通じる、根本的な欠陥の正体でした。

【オマケ】AIとの対話の果てにたどり着いた「最強の執筆チーム」

議論は終わり、ぼくの手元には「ポンコツ」の正体と、それでも使い続けなければならない理由だけが残りました。では、この「やる気のある無能」と、ぼくはこれからどう付き合っていけばいいのでしょうか。
ポンコツでも捨てきれない、たった一つの“有能な”スキル
ChatGPT5との契約を解除しない理由。それは、「Web検索のURL精度」というスキルです。
正直なところ、このAIを「ほぼ100%正確」と持ち上げるつもりは毛頭ありません。ChatGPT5だって普通に間違えます。ただ、ぼくの個人的な体感として、特にGeminiが提示するリンクは壊れていたり、内容が全く違ったりすることが多く、それに比べればChatGPT5の方が「まだマシ」というレベルで使っている、というのが実情です。他のAIは経験が薄いので断定できませんが、少なくともぼくの環境ではそう感じています。
ポンコツだけど、調べ役としては「まだマシ」。そんな不器用なAIと、ぼくはこれからも付き合っていくしかなさそうです。

完璧なAIはいない。だから「チーム」で使い分ける時代へ
今回の長い長い対話は、ぼくに一つの真理を教えてくれました。それは、「完璧なAIは存在しない。だから、AIは“チーム”で使い分ける時代だ」ということです。一人のAIに全てを期待するからイライラするのです。それぞれの個性を理解し、適材適所で役割を与える。まるで編集長のように、AIたちをマネジメントする視点が必要なのです。
- 面白いアイデアが欲しいなら、皮肉屋のGrokに。
- 読者の心に寄り添う文章が書きたいなら、カウンセラーのClaudeに。
- 散らかった情報を整理したいなら、分析官のGeminiに。
- 記事の信頼性を担保したいなら、会話はできないが調査能力は随一の「図書館司書」Perplexityに。このAIは議論には参加しませんが、ブログの根拠となるファクトチェックや出典集めにおいては、どのAIよりも信頼できるパートナーです。
- そして、正確なURLが欲しいなら、ポンコツだけど調べ役だけは「まだマシ」なChatGPT5に。
こう考えるだけで、なんだかワクワクしてきませんか?
ぼくの課金状況で考えた「ブログ執筆パイプライン」最終版
ちなみに、Claudeは無料版だと使用制限があるかもしれない、という現実的な問題もあります。そこで、ぼくが課金しているGeminiとGrokを主軸に、ChatGPT5を「調べ役」として組み込んだ、最終的な執筆チームの布陣を考えてみました。
- 企画・アイデア出し: Grok(主担当)とGemini(壁打ち役)
- 調査・裏付け: PerplexityとChatGPT5(※本文には一切触らせない隔離チーム)
- 構成・構造化: Gemini(分析官)
- 執筆・肉付け: Grok(初稿担当)とGemini(推敲担当)
- 最終調整・仕上げ: Gemini(編集長)
- 奥の手: どうしても共感の表現が必要な時だけ、Claude(魔法の一筆)
この布陣なら、各AIの長所を最大限に引き出し、短所を補い合いながら、最高のブログ記事を作り上げることができるはずです。
これからのAIとの付き合い方。ぼくらは「ユーザー」から「編集長」へ
ChatGPT5への不満から始まった今回の検証は、結果として、AIとの新しい付き合い方を発見する旅になりました。AIに振り回されるのではなく、個性を見極め、導いていく。ぼくらはもう、単なる「ユーザー」ではありません。AIという個性豊かなチームを率いる**「編集長」**なのです。
もしあなたが、AIとの関係に少しでも疲れを感じているなら、この「チーム」という考え方を試してみてはいかがでしょうか。きっと、これまでとはまったく違う、新しい創作の世界が広がっていくはずですから。


コメント