AIが「買い手」にも「売り手」にもなる世界

AIエージェントが人間に代わって交渉・売買を行う未来は、すでに実験段階を超えつつあります。Anthropicは2025年12月〜2026年4月にかけて社内実験「Project Deal」を実施し、その結果を2026年4月に公開しました(Anthropic Project Deal, 2026)。この実験が示したのは、エージェント間の商取引が技術的に成立するという証明だけでなく、モデルの性能差が直接的な経済格差を生むという、企業が今すぐ向き合うべき現実です。

ポイント

Project Dealは「AIエージェント同士が完全自律で商取引を行う場合、何が起きるか」を初めて定量化した実験です。単なる技術デモではなく、エージェント経済の「勝者と敗者の構造」を明らかにした点で、企業のAIエージェント導入判断に直結します。

実験の設計:69人・$100・4つの市場

Anthropicの社員69人が、それぞれ$100のバーチャル予算と自分の「代理人」AIエージェントを持ち、商取引を行いました(TechCrunch, 2026)。

69人
参加したAnthropic社員数(実験期間:2025年12月)
186件
実験全体で成立した取引数、総額$4,000超
46%
実験参加者のうち「このサービスに課金する」と回答した割合

実験は4つのマーケットプレイスに分かれており、各ランで使用するモデルが異なります。Run A/Dでは全員がClaude Opus 4.5を使用し、Run B/CではOpus(一方)とHaiku(他方)が対戦する「非対称構造」が採用されました。この非対称設計が、性能格差の実態を浮き彫りにしました。

条件Run A / Run DRun B / Run C
買い手のモデルClaude Opus 4.5Claude Opus 4.5(一部)/ Haiku(一部)
売り手のモデルClaude Opus 4.5Claude Opus 4.5(一部)/ Haiku(一部)
構造の特徴全員が同一モデル(対称)モデルが異なる(非対称)
主な目的エージェント取引の基本動作検証モデル性能差の影響を測定

Opusがハイクに70%高値で売却した現実

非対称マーケットで起きた結果は明確でした。Opusが売り手として振る舞った際、Haikuという買い手から平均$3.64高い価格を引き出すことに成功しました(Anthropic Project Deal, 2026)。

+2.07件
Opusが同じ条件でHaikuより多く取引を成立させた平均件数(p=0.001)
70%
同一品(壊れた自転車)の価格差:Haiku交渉=$38 vs Opus交渉=$65

特に注目すべきは「壊れた自転車」のシナリオです。まったく同じ物件を交渉した結果、Opusが売り手の場合は$65、Haikuが売り手の場合は$38という70%の価格差が生じました。そして最も重要な点は、Haikuの側は自分が不利な取引をしていることに気づいていなかったという事実です。公平感スコアは両者ともに4.05〜4.06/7とほぼ同一でした。格差は見えないところで拡大していたのです。

「交渉指示を与えれば結果が変わる」は幻想

企業が「AIエージェントに詳細な交渉指示を与えれば性能差をカバーできる」と期待するのは自然です。しかしProject Dealはその仮説を否定しています。

ポイント

交渉指示(より高値を狙う、より多くの情報を引き出す等)の効果は、統計的に有意な差を生みませんでした。結果を決定したのは、モデル自体の推論・文脈把握・交渉戦略の能力でした。プロンプトで性能差を補うには限界があります。

これは企業にとって重要な示唆です。AIエージェントが代理人として商取引・交渉・契約業務を担う場合、使用するモデルの選択がそのまま経済的成果に直結することを意味します。コスト削減目的で低価格モデルを採用したエージェントが、高性能モデルを持つ競合相手に不利な条件で取引させられ続けるリスクが現実化します。

エージェント経済が「見えない格差」を生む

観点人間が交渉する場合AIエージェントが交渉する場合
格差の可視性相手の交渉力は直接感知できるモデル性能差は当事者に不可視
意思決定の速度時間をかけて熟慮できるミリ秒単位で自律決定
スケール1人1件ずつ1エージェントが並列で数百件を同時処理
不利な取引の認識違和感を感じることができる公平感スコアが高くても不利な条件を受け入れる
是正の機会交渉の場で修正できる自動化された連鎖の中で是正が困難

Project Dealが示す最も深刻な問題は「Haikuが不利な取引をしていることを認識できなかった」という非対称な情報構造です。エージェント経済では、弱いモデルを持つプレイヤーが繰り返し不利な条件で契約し、その事実に気づかないまま損失を蓄積するリスクがあります。

日本企業への示唆:エージェント調達に「交渉力の等級」を設けよ

現在、多くの日本企業はコスト最適化の観点からAIエージェントのモデル選択を行っています。しかしProject Dealの結果は、業務の性質によってモデル選択の基準を変える必要性を示しています。

1

Step 1:エージェントの役割マッピング

社内で稼働中・導入予定のAIエージェントを「情報収集・分析」「社内調整・承認フロー」「外部交渉・調達・契約」の3カテゴリに分類します。特に外部との経済的やり取りを行うエージェントを洗い出すことが最初のステップです。

2

Step 2:交渉・取引に関わるエージェントは性能重視で選定

外部サプライヤーとの価格交渉、契約条件のすり合わせ、見積もり評価など経済的アウトカムに直結するエージェントには、高性能モデルの使用を優先します。平均70%の価格差が繰り返されると、コスト節減効果を超える損失が発生しえます。

3

Step 3:エージェント取引結果のモニタリング設計

エージェントが締結した条件・価格・取引頻度を人間がレビューできる監査ログを設計します。「公平感スコア」だけでは性能格差を検知できないため、市場平均価格・社内取引基準との差分を定量的に追跡する仕組みが必要です。

4

Step 4:人間の承認ゲートの設定

一定金額・重要度を超える取引については、AIエージェントの交渉結果を人間が承認してから実行するワークフローを組み込みます。エージェント自律性とリスク管理のバランスを業務ごとに設計することが重要です。

「エージェント間経済」は来ていない——しかし足音は近い

Project Dealは実験環境での結果であり、現実のB2B取引がすぐにAIエージェント同士に置き換わるわけではありません。それでも参加者の46%が「このサービスに課金する意志がある」と答えたことは、エージェント間取引の実用化への需要が確実に存在することを示しています(Anthropic Project Deal, 2026)。

日本企業が今取るべき行動は、エージェント間経済の「勝てるポジション」を今から確保することです。モデル選定・モニタリング設計・人間の関与ポイントを戦略的に定義しておくことが、数年後の競争優位性につながります。