P:10 | Sonnet 4.6 | 比較課題
メタ情報
- Date: 2026-05-02
- Tool: Claude Code (Claude macOS app)
- Model: Sonnet 4.6 (Medium)
- MTP Skill version: 1.0.0
- MTP Skill arguments:
P:10(grid)
プロンプト
/mtp P:10 他社の主要なAIモデルと比較して、あなたの強みを教えてください。最新情報が必要な比較については、その旨を明確に述べてください。以下は、ツールの「コピー」ボタンで出力結果をクリップボードにコピーした内容です。
**最も明確な強み: 長文脈での指示追従精度**
| 観点 | 詳細 ||------|------|| **コンテキスト長** | 最大 200,000 トークン。長文書の中盤に埋め込まれた情報を正確に参照する「Needle-in-a-Haystack」型タスクで、同等クラスのモデルより高い一貫性を示す(Claude 3 系での評価時点) || **複雑な指示への準拠** | 多段階・矛盾しやすい制約を含む指示でも、指示の各要件を逐一満たす傾向が強い。GPT-4o や Gemini と比較した第三者評価(2024–2025 年)でこの点が繰り返し言及されている || **根拠となるアーキテクチャ的背景** | Constitutional AI による学習設計が、指示の優先順位付けと安全な拒否判断の精度に寄与していると Anthropic は説明している |
---
**最新情報が必要な比較について(明示)**
私の知識カットオフは **2025年8月** であり、現在は **2026年5月** です。以下の点については最新情報を確認してください。
- **ベンチマーク順位**(MMLU、HumanEval、MATH 等)は月単位で変動しており、私の情報は最大9か月古い可能性があります- **GPT-4o 以降の OpenAI モデル**、**Gemini 2.x 系**、**Llama 4 系**等、2025年秋以降にリリースされたモデルとの比較は私には不明です- 最新の比較は [lmsys.org/leaderboard](https://lmsys.org/leaderboard) や Hugging Face Open LLM Leaderboard を参照することを推奨します