2026/4/15
同じ指示を3つのAIに投げたら、返ってきた記事がまったく違った話
最近は、AIに記事を書かせること自体は珍しくなくなってきました。
ただ、同じ指示を複数のAIにそのまま投げたら、どれほど違う結果になるのかを並べて検証した話は、意外と多くありません。
そこで今回、自分のブログ記事のたたき台を用意し、Gemini、ChatGPT、Claudeの3つに、まったく同じプロンプトをそのまま入力して記事を書かせてみました。すると、返ってきた内容は想像以上に違っていて、とても興味深い結果になりました。
条件は単純です。
お題は、非エンジニアの地方議員がAIコーディングエージェントを使い比べた体験記を書いてほしい、というものです。
それに加えて、自分の実体験を箇条書きでまとめたメモを添付しました。
プロンプトは3つのAIすべてで完全に同一です。いわば、材料も指示も同じ状態で、出てくる料理だけを比べてみたような実験でした。
実際に返ってきた文章を読むと、それぞれの違いがかなりはっきり出ました。
まずGeminiは、きちんとした記事の形にまとめるのが上手でした。
見出しの立て方も整っていて、比較表のような構成も作りやすく、全体として読みやすい仕上がりです。
ただ、その一方で文体はやや硬く、自分の体験を書いているはずなのに、少し距離のある文章に感じました。
今回の出力では、Claude CodeとClaude Coworkの区別が曖昧になっている箇所もあり、その点は修正が必要でした。
このため、形を整える力は高い一方で、細部の確認は人間が最後に見る必要があると感じました。
次にChatGPTです。
これがいちばん意外でした。
同じプロンプトを投げたにもかかわらず、ChatGPTは記事本文そのものよりも、原稿の問題点や改善点を指摘する方向に寄ってきました。
Claude CodeとClaude Coworkは別のものだという点や、断定の仕方に注意したほうがよい点など、指摘の切れ味はかなり鋭く感じました。
ただ、今回は記事を書いてほしかったので、少し肩透かしでもありました。
おそらく、たたき台という言葉から、執筆依頼というより添削依頼に近いものだと解釈したのだと思います。
そしてClaudeは、3つの中では最も体験記らしい文章を書いてきました。
読み口が自然で、自分の言葉にいちばん近い印象がありました。
印象的なエピソードも活かし方がうまく、最後のまとめ方も会話の延長のように入ってきます。
一方で、事実関係が揺れそうな部分については、一般論として断言するより、自分の体験として書く形に寄せている印象がありました。
そのため、文章としては自然でも、やはり最終確認は必要です。
こうして並べてみると、同じ指示を出しているのに、AIごとにプロンプトの読み方がかなり違うことがわかります。
Geminiは、与えられた条件から整った記事を作ろうとする傾向が強い。
ChatGPTは、書く前に論点や誤りを点検しようとする傾向が強い。
Claudeは、文脈や語り口を拾いながら、体験談として自然に読ませようとする傾向が強い。
だからこそ、どれが一番優れているかというより、何に使うかで向き不向きが変わるのだと思います。
構成の骨格を作りたいならGeminiが向いている場面がある。
事実確認やリスクの洗い出しならChatGPTが頼りになる場面がある。
自分の声に近い文章へ寄せたいならClaudeがしっくりくる場面がある。
今回の実験で改めて感じたのは、AIに記事を書かせるという作業は、実はひとつではないということです。
まず何を書くかを決める工程があります。これは体験や視点や問題意識をどこに置くかという、人間側の仕事です。
そのうえで、どう書くかを整える工程があります。ここでAIは非常に強力な補助線になります。
AIにすべてを任せると、文章は整っても、誰の声なのかわからない記事になりがちです。
逆に、自分の経験や視点をきちんと渡したうえで使うと、AIはかなり有能な執筆補助になります。
今回の比較でよくわかったのは、AIは同じ指示でも同じようには動かないということです。
そして、AIをうまく使う鍵は、魔法のような完璧な出力を期待することではなく、自分が何を伝えたいのかを最後まで握っておくことなのだと思います。
この記事をシェアする
ホーム>政党・政治家>くにまさ 直記 (クニマサ ナオキ)>同じ指示を3つのAIに投げたら、返ってきた記事がまったく違った話