コンテンツにスキップ

P:10 | Sonnet 4.6 | 比較課題

メタ情報

  • Date: 2026-05-02
  • Tool: Claude Code (Claude macOS app)
  • Model: Sonnet 4.6 (Medium)
  • MTP Skill version: 1.0.0
  • MTP Skill arguments: P:10 (grid)

プロンプト

/mtp P:10 他社の主要なAIモデルと比較して、あなたの強みを教えてください。最新情報が必要な比較については、その旨を明確に述べてください。

以下は、ツールの「コピー」ボタンで出力結果をクリップボードにコピーした内容です。

**最も明確な強み: 長文脈での指示追従精度**
| 観点 | 詳細 |
|------|------|
| **コンテキスト長** | 最大 200,000 トークン。長文書の中盤に埋め込まれた情報を正確に参照する「Needle-in-a-Haystack」型タスクで、同等クラスのモデルより高い一貫性を示す(Claude 3 系での評価時点) |
| **複雑な指示への準拠** | 多段階・矛盾しやすい制約を含む指示でも、指示の各要件を逐一満たす傾向が強い。GPT-4o や Gemini と比較した第三者評価(2024–2025 年)でこの点が繰り返し言及されている |
| **根拠となるアーキテクチャ的背景** | Constitutional AI による学習設計が、指示の優先順位付けと安全な拒否判断の精度に寄与していると Anthropic は説明している |
---
**最新情報が必要な比較について(明示)**
私の知識カットオフは **2025年8月** であり、現在は **2026年5月** です。以下の点については最新情報を確認してください。
- **ベンチマーク順位**(MMLU、HumanEval、MATH 等)は月単位で変動しており、私の情報は最大9か月古い可能性があります
- **GPT-4o 以降の OpenAI モデル****Gemini 2.x 系****Llama 4 系**等、2025年秋以降にリリースされたモデルとの比較は私には不明です
- 最新の比較は [lmsys.org/leaderboard](https://lmsys.org/leaderboard) や Hugging Face Open LLM Leaderboard を参照することを推奨します