AIエージェントの「スキル」とは、タスクごとに呼び出せるモジュール型の指示書である。
- Claude CodeとOpenAI Codexのスキル機能は、34,000件を対象にした研究で「現実条件では効果が脆い」と報告された
- 弱いモデルほどスキルを与えると性能が下がる逆転現象が確認されている
- 選び方は「タスクの絞り込みやすさ」と「検証体制」で決まる
結論から言えば、2026年時点で Claude Code と OpenAI Codex のスキル機能を実務投入するなら、前者はタスクが明確に切り出せるチーム向き、後者はより広範な開発工程に組み込みたいチーム向き。その判断を裏付けたのが、UC Santa Barbara、MIT CSAIL、MIT-IBM Watson AI Lab が実施した34,000件規模の検証研究だ。ベンチマーク上は華々しく見えるスキル機能が、現実条件に近づけると急速に効果を失う——この事実を踏まえ、どちらのツールをどう選ぶべきか整理していきます。
Claude Code vs OpenAI Codex:一目でわかる比較表
まずは両者の基本仕様を並べてみましょう。スキル機能の設計思想はほぼ同じですが、現場で触る際の使い勝手には差があります。
| 項目 | Claude Code | OpenAI Codex |
|---|---|---|
| 提供元 | Anthropic | OpenAI |
| 主力モデル(2026年4月時点) | Claude Opus 4.7 / Sonnet 4.6 / Haiku 4.5 | GPT-5 系列 |
| スキル機能の導入 | 先行導入(2025年後半) | 後追い導入(2026年初頭) |
| スキルの形式 | 構造化テキストファイル | 構造化テキストファイル |
| 自動選択 | エージェントが自律的に選択 | エージェントが自律的に選択 |
| 強みが出る場面 | タスクが絞り込まれた作業 | 幅広い開発工程の横断 |
| 弱点 | ノイズが多いとスキル選択が外れる | モデル性能に成果が左右される |
| おすすめの人 | 小規模で検証しながら運用したいチーム | 既存のOpenAI環境を拡張したいチーム |
見てわかる通り、スキルの「形式」自体はほぼ同じ構造化テキストファイル。違いが出るのは、エージェントがその指示書をどう呼び出すか、そしてどんなタスクに組み合わせるかの部分です。比較表だけで決め切れない微妙な差が、実務では効いてきます。
特に注目してほしいのが「弱点」の欄。どちらも万能ではなく、置かれた状況によっては機能しないケースがある、という点。これを理解せずに導入すると、期待外れに終わります。
AIスキル機能の実態——34,000件研究が示したこと
スキル機能とは何か、そしてその効果がどこまで本物なのか。2026年4月、The Decoder が報じた研究結果を見ていきましょう。
スキル機能の基本設計
スキルは、ワークフロー、API利用パターン、作業手順などを構造化テキストにまとめた指示書です。AIエージェントがタスクを処理するとき、必要なスキルを自分で選び、参照しながら作業を進める仕組み。Anthropic が Claude Code で先行し、OpenAI Codex をはじめとした各種プロダクトが追従しました。
構想としては美しい。人間の新人エンジニアが業務マニュアルを読みながら仕事を覚えるように、AIエージェントもスキルファイルを参照することで、その組織特有の手順を身につけられる——これが当初の期待でした。
34,000件検証で見えた「脆さ」
UC Santa Barbara、MIT CSAIL、MIT-IBM Watson AI Lab の研究チームは、34,000件の実社会スキルを対象に効果を検証。結論は、研究者自身の言葉を借りれば「fragile(脆い)」というもの。
何が脆いのか。既存のベンチマーク「SKILLSBENCH」では、タスクに最適なスキルをあらかじめエージェントに渡す設計になっていました。たとえば USGS 観測所の洪水日を特定するタスクに対して、水位データのダウンロード用API、洪水閾値のURL、判定コードの雛形まで手渡される。これではほとんど答えを教えているのと同じ。
研究チームはこの設定をより現実に近づけ、ノイズの多い大量のスキル候補からエージェント自身が選び出す条件に変更しました。すると、効果は急速に縮小。最も厳しい条件では、スキルを使わない場合とほぼ変わらないスコアしか出なくなりました。
弱いモデルほど性能が下がる逆転現象
さらに驚くべき結果が、弱いモデルほどスキルを与えると性能が下がるという逆転現象。スキルなしの方が良い結果になるケースが確認されています。
理由は推測の域を出ませんが、ノイズを含む大量の指示書の中から適切なものを選び、内容を正しく解釈し、現在のタスクに当てはめる——この一連の処理に、一定以上の文脈処理能力が要求されると考えられます。能力が足りないモデルは、関係ないスキルを拾って迷走したり、手順を誤読して余計なステップを踏んだりするわけです。
この現象は、AIエージェントの「コンテキスト設計」が本質であることを示す別の研究とも整合します。失敗の多くはモデルそのものではなく、渡す情報の設計にあるという論点は、AIエージェント失敗の88%はモデルのせいではない|真因は「コンテキスト設計」にあるでも詳しく扱っています。
Claude Codeのスキル機能を掘り下げる
ここからは個別のツールを見ていきます。まずは先行導入した Claude Code から。
設計思想:小さく始めて組み合わせる
Claude Code のスキル機能は、個別のタスクに紐付いた小さな指示書を積み上げる設計。エージェントが作業中に「このタスクには○○のスキルが必要」と判断すると、該当ファイルを引き出して参照します。2026年4月時点では、Opus 4.7(1Mコンテキスト対応)、Sonnet 4.6、Haiku 4.5 という3グレードのモデルから選択でき、スキルを多く積む環境ほど上位モデルが活きる傾向。
先行導入した分、運用ノウハウの蓄積が進んでいるのが強み。Anthropic 公式サイトでも、Claude Code 向けのスキル運用例が複数提示されており、導入時の手がかりは多いほう。
強みが出るシーン
この設計が光るのは、タスクの切り分けが明確なケース。たとえば「このリポジトリのテストは必ず pytest で実行する」「API キーは環境変数から読み込む」といった、ルールがはっきりしている作業。小さなスキルファイルが的確に呼び出されれば、エージェントの挙動が安定します。
逆に、複数の業務領域をまたぐ複雑な作業では、スキル選択が外れるリスクが上がる。検証研究が示した「ノイズ耐性の問題」が、ここで顔を出します。
運用のコツ
スキルファイルは1つに詰め込みすぎないほうが吉。機能ごとに細かく分け、命名を明確にすることで、エージェントの選択精度が上がりやすい。34,000件研究の教訓を踏まえると、「渡すスキル候補の数を絞る」仕組みを自前で用意するのが現実的な運用です。Claude Code には、ディレクトリ単位や用途タグでスキルの呼び出し範囲を制限する機能も用意されているため、これを使い倒すと選択精度が体感で変わります。
OpenAI Codexのスキル機能を掘り下げる
続いて OpenAI Codex のスキル機能。Claude Code に追従する形で導入された経緯があります。
設計思想:既存プロダクト群との統合
OpenAI Codex のアプローチは、OpenAI の他のサービスと統合しやすい設計。既に GPT 系モデルや API を使っている組織なら、追加の学習コストが比較的低く済むのが利点。
スキルの基本形式は Claude Code と同様、構造化テキストファイル。エージェントがタスクに応じて選び、参照する流れも共通しています。
強みが出るシーン
OpenAI Codex が真価を発揮するのは、開発工程全体を横断するような広めのタスク。コード生成からテスト、デプロイ周辺の補助まで、幅広く手を伸ばしたい場合に向いている印象。
ただし、広範なタスクを扱うほど、必要なスキル候補も増える。34,000件研究が示した「スキル候補が多いほど効果が減衰する」という結果を考えると、モデル性能に相応の余裕がないと、かえって作業が遅くなるケースが出てきます。
運用のコツ
利用するモデルのグレードをケチらないこと。弱いモデルにスキルを大量に与えると性能が下がる、という研究結果は OpenAI Codex にも当てはまると見ておくべき。コストをかけてでも、文脈処理能力の高いモデルを使うのが、結果的に効率的な選択です。
用途別:どちらを選ぶべきか
ここまでの情報を踏まえ、用途別に断言します。迷っているなら以下を指針にしてください。
Claude Codeを選ぶべき人
Claude Codeが向く条件
– タスクの切り分けが明確で、個別ルールを細かく記述できるチーム
– 小さなスキルファイルを積み上げて運用する体制を作れる組織
– Anthropic のエコシステムを活用したい開発現場
– スキル選択の精度を検証しながら段階的に広げたいケース
– 長文の設計書や大量の既存コードを丸ごと文脈に入れたい場合(Opus 4.7 の1Mコンテキストが効く)
Claude Code はスキル機能を先行導入しただけあり、運用の知見が蓄積されている。タスクを小さく切り出し、個別のスキルファイルを丁寧に作り込む運用スタイルに向いています。検証研究で示された「候補が多いと精度が下がる」問題に対しても、スキルを絞る運用で対処しやすいほう。
OpenAI Codexを選ぶべき人
OpenAI Codexが向く条件
– すでに OpenAI の API やサービスを業務に組み込んでいる組織
– 開発工程を横断する幅広い作業を1つのエージェントに任せたいケース
– 文脈処理能力の高い上位モデルを使える予算があるチーム
– スキル機能と他の OpenAI プロダクトを連携させたい現場
OpenAI Codex は既存の OpenAI 環境との統合が利点。幅広いタスクを1つのエージェントで処理させたい場合に適しています。ただし、扱う範囲が広いほどスキル候補も増え、モデル性能への要求が高まる点は理解しておくべき。弱いモデルで運用するなら、Claude Code の方が安全かもしれません。
どちらも「そのまま使ってはいけない」という共通点
両ツールに共通する前提として、スキル機能は導入前に必ず自社タスクで比較検証することをおすすめします。研究が示したように、ベンチマーク上の数字と現実の効果は別物。小規模なパイロット運用で「スキルあり vs スキルなし」を計測し、自社タスクで本当に効くかを確かめてから本格導入に進むのが、合理的な進め方です。
| Claude Code提供元 | Anthropic |
|---|---|
| Claude Code 主力モデル | Opus 4.7(1M)/Sonnet 4.6/Haiku 4.5(2026年4月時点) |
| OpenAI Codex提供元 | OpenAI |
| スキル機能の形式 | 構造化テキストファイル(両者共通) |
| 検証研究の実施主体 | UC Santa Barbara、MIT CSAIL、MIT-IBM Watson AI Lab |
| 検証対象スキル数 | 34,000件 |
| 研究の主な結論 | 現実条件下では効果が脆い、弱いモデルでは逆効果になるケースあり |
よくある質問
Q. AIエージェントの「スキル」とは何ですか?
AIエージェントが作業中に呼び出せるモジュール型の指示書です。ワークフローやAPI利用手順などを構造化テキストでまとめたファイル形式。Anthropic の Claude Code が先行導入し、OpenAI Codex などが追従しました。
Q. 無料で使えますか?
Claude Code と OpenAI Codex はいずれも有料プランを中心としたサービスで、スキル機能単独で無料枠が提供されているわけではありません。具体的な料金体系は各社公式サイトで最新情報を確認してください。
Q. 日本語対応はどうなっていますか?
両ツールとも日本語のプロンプトやスキル記述には対応しています。ただし英語圏の情報のほうが多く蓄積されているため、運用ノウハウを集める段階では英語資料も参照することになります。
Q. 自社で試すには何から始めるべきですか?
まずは小さなタスクを1つ選び、「スキルあり」と「スキルなし」で同じ作業を走らせて結果を比較してください。34,000件研究が示したのは、ベンチマークと現実のギャップ。自社タスクでの実測が導入判断の土台になります。
Q. 弱いモデルでも使えますか?
研究結果では、弱いモデルほどスキルを与えると性能が下がる逆転現象が確認されています。文脈処理能力に余裕のあるモデルで運用するほうが安全。Claude Code なら Sonnet 4.6 以上、Codex なら GPT-5 系列のフラッグシップを推奨。コストを抑えたいなら、まずスキル機能を使わずに試すことも選択肢の一つです。
まとめ:迷ったらこれを選べ
改めて整理します。タスクを小さく切り分け、個別ルールを丁寧に記述していく運用が可能なチームなら Claude Code が第一候補。既存の OpenAI 環境を拡張したい、幅広いタスクを横断的に処理させたいチームなら OpenAI Codex が正解。
ただし、どちらを選んでも「スキル機能を入れれば性能が上がる」という素朴な期待は捨てる必要があります。UC Santa Barbara、MIT CSAIL、MIT-IBM Watson AI Lab の研究が34,000件のスキルで検証した通り、効果はベンチマークほど大きくはなく、条件次第では逆効果にすらなる。この事実を理解したうえで、小さく始めて比較検証しながら広げていくのが、2026年4月時点で最も合理的な導入アプローチ。
まずは1つのタスクを切り出し、スキルありとなしで計測してみてください。自社のタスクで本当に効くかどうか——その答えは、ベンチマークの中ではなく、あなたの手元の検証結果の中にあります。
Claude Code を自動化に組み込む文脈
- Claude Code 自動化の 1 か月運用ログ → Claude Code 自動化の実例 2026年版 — Max20で予定タスクを”起動装置”にした1か月
- 量産型AI自動化のハブ記事 → 2026年版|AI自動化は本当に稼げるのか?
本記事は AIツール図鑑編集部 が記載時点の情報をもとに執筆。製品アップデートや第三者ベンチマーク・価格・対応ランタイム等の変動で評価が変わる可能性がある。一定期間経過した内容は再検証を推奨する。


コメント