
【Amazon Bedrock入門②】Bedrockのモデル一覧——Claude・Nova・Llamaの選び方
BedrockにはClaude・Amazon Nova・Llama・Mistral・Cohereなど多数のモデルがある。
「どれを使えばいいかわからない」という状態から、用途と予算に合わせて迷わず選べるようになるのがこの記事のゴール。
モデルの3カテゴリ
Bedrockのモデルはまず用途で3つに分類される。
| カテゴリ | 主な用途 | 代表モデル |
|---|---|---|
| テキスト生成 | チャット・要約・コード生成・翻訳 | Claude・Nova・Llama・Mistral |
| 埋め込み(Embeddings) | RAGのベクトル化・類似検索 | Titan Embeddings・Cohere Embed |
| 画像・動画生成 | 画像の生成・編集・動画生成 | Nova Canvas・Stable Diffusion |
ほとんどのユースケースは「テキスト生成」か「埋め込み(RAG用)」のどちらか。
Claudeシリーズ(Anthropic)
Bedrockで最も広く使われているのがAnthropicのClaude。日本語品質が高く、指示追従性に優れる。
Haiku・Sonnet・Opusの違い
| モデル | 特徴 | 向いている用途 | コスト感 |
|---|---|---|---|
| Claude Haiku 4.5 | 高速・軽量 | バッチ処理・大量リクエスト・要約・分類 | 最安 |
| Claude Sonnet 4.6 | バランス型 | チャットBot・コード支援・RAG | 中程度 |
| Claude Opus 4.6 | 最高精度 | 複雑な推論・長文分析・高品質な文章生成 | 最高 |
選び方の基本
- レスポンス速度とコストが優先 → Haiku
- 品質と速度のバランス → Sonnet
- 精度が最優先で量が少ない → Opus
日常的なWebアプリやチャットBotならSonnetから始めるのが無難。コストが気になり始めたらHaikuへの切り替えを検討する。
実際のモデルID(2026年3月時点)
Claude 4.x系はクロスリージョン推論(Cross-Region Inference)が前提となるモデルが多く、APIから呼び出す際は us. プレフィックス付きの推論プロファイルIDを使う。
# コードから呼び出す際に使うID(jp. = アジア太平洋クロスリージョン推論)
jp.anthropic.claude-haiku-4-5-20251001-v1:0 ← Claude Haiku 4.5
jp.anthropic.claude-sonnet-4-6 ← Claude Sonnet 4.6
jp.anthropic.claude-opus-4-6-v1 ← Claude Opus 4.6
jp. プレフィックスを付けることで日本・アジア太平洋リージョンへのルーティングになり、日本から呼び出す際のレイテンシが改善される。us. プレフィックスでも動くが、US東西リージョン経由になる。コードで直接ベースモデルID(プレフィックスなし)を使うと ValidationException になる場合があるため注意。
アクセス申請が必要。コンソール(Bedrock → モデルアクセス)からAnthropicの利用規約に同意して申請する(多くは即時承認)。
Amazon Novaシリーズ
2024年末にAmazonがリリースした独自の新世代テキスト生成モデル。申請不要でデフォルト利用可能。
テキスト生成(Nova Micro / Lite / Pro / Premier)
| モデル | 特徴 | 向いている用途 |
|---|---|---|
| Nova Micro | 最軽量・最速 | 単純な分類・キーワード抽出 |
| Nova Lite | 軽量・マルチモーダル | テキスト+画像入力、コスト重視 |
| Nova Pro | バランス型・マルチモーダル | 汎用チャット・RAG・エージェント |
| Nova Premier | 最高精度 | 複雑なタスク・長文処理 |
amazon.nova-micro-v1:0 ← Nova Micro
amazon.nova-lite-v1:0 ← Nova Lite(東京リージョン対応)
amazon.nova-pro-v1:0 ← Nova Pro
amazon.nova-premier-v1:0 ← Nova Premier
Nova Lite / Pro はマルチモーダル対応(テキスト+画像を同時入力可能)。東京リージョン(ap-northeast-1)でも利用できるため、レイテンシ重視の用途に向く。
画像・動画生成(Nova Canvas / Reel)
amazon.nova-canvas-v1:0 ← 画像生成(東京リージョン対応)
amazon.nova-reel-v1:1 ← 動画生成(us-east-1のみ)
Meta Llamaシリーズ
オープンソース系のモデル。英語タスクで強く、コスト重視のケースで選択肢になる。申請不要。
Llama 4(最新世代)
2026年初頭リリースのLlama 4はマルチモーダル対応(テキスト+画像入力)。
meta.llama4-maverick-17b-instruct-v1:0 ← Llama 4 Maverick 17B
meta.llama4-scout-17b-instruct-v1:0 ← Llama 4 Scout 17B
Llama 3.x系
meta.llama3-3-70b-instruct-v1:0 ← Llama 3.3 70B(最新の3.x)
meta.llama3-2-11b-instruct-v1:0 ← Llama 3.2 11B(マルチモーダル)
meta.llama3-1-8b-instruct-v1:0 ← Llama 3.1 8B(軽量・高速)
日本語品質についての注意:Llamaは英語タスクでの性能が高い一方、日本語の品質はClaudeに劣る場面が多い。日本語が必要なプロダクトではClaudeかNovaを優先する。
Mistral AIシリーズ
コード生成に強いモデルがあり、開発支援用途で評価が高い。申請不要。
mistral.mistral-large-3-675b-instruct ← Mistral Large 3(最新・マルチモーダル)
mistral.devstral-2-123b ← Devstral 2(コーディング特化)
mistral.ministral-3-8b-instruct ← Ministral 8B(軽量)
特にコード生成・レビューに特化した Devstral はエンジニアリング用途で検討する価値がある。
Cohereシリーズ
Enterprise向けRAGで評価が高い。埋め込みモデルの品質も高く、RAG構築での採用例が多い。申請不要。
cohere.command-r-plus-v1:0 ← Command R+(テキスト生成)
cohere.command-r-v1:0 ← Command R(テキスト生成)
cohere.embed-multilingual-v3 ← Embed Multilingual(多言語埋め込み)
cohere.embed-v4:0 ← Embed V4(テキスト+画像対応)
cohere.rerank-v3-5:0 ← Rerank 3.5(検索結果の再ランキング)
日本語を含む多言語RAGには Embed Multilingual が有効な選択肢。
Titanシリーズ(Amazon)
AmazonオリジナルのTitanは埋め込みモデルとして活用するのがメイン。申請不要。
amazon.titan-embed-text-v2:0 ← Titan Embeddings V2(RAG用・推奨)
amazon.titan-embed-image-v1:0 ← Titan Multimodal Embeddings
テキスト生成のTitanはNovaシリーズに事実上置き換えられているため、新規開発ではNovaを使う。
その他のモデル
| モデル | モデルID | 特徴 |
|---|---|---|
| DeepSeek R1 | deepseek.r1-v1:0 |
推論・数学特化モデル、申請不要 |
| AI21 Jamba 1.5 Large | ai21.jamba-1-5-large-v1:0 |
長コンテキスト対応(us-east-1のみ) |
モデル選択チャート
テキスト生成が必要
├── 日本語が必要
│ ├── 高品質・汎用 → Claude Sonnet 4.6
│ ├── コスト重視・高速 → Claude Haiku 4.5 or Nova Micro/Lite
│ └── 複雑な推論 → Claude Opus 4.6
├── 英語のみ、コスト重視 → Llama 3.1/3.3 or Nova Micro
└── コード生成特化 → Mistral Devstral
RAGのベクトル化が必要
├── 日本語 → Titan Embeddings V2 or Cohere Embed Multilingual
└── 多言語・高品質 → Cohere Embed V4
画像・動画生成が必要
├── 画像生成 → Nova Canvas(申請不要)
└── 動画生成 → Nova Reel(us-east-1のみ)
迷ったらこれ
| シーン | 推奨 |
|---|---|
| とりあえず試したい(日本語) | Claude Haiku 4.5 |
| 本番のチャットBot(日本語) | Claude Sonnet 4.6 |
| 申請なしで今すぐ試したい | Amazon Nova Lite |
| RAGのEmbeddings | Titan Embeddings V2 |
| コード生成 | Mistral Devstral 2 |
| 推論・数学タスク | DeepSeek R1 |
アクセス申請まとめ
| 申請必要 | 申請不要(デフォルト利用可) |
|---|---|
| Anthropic Claude(全モデル) | Amazon Nova・Titan |
| Meta Llama | |
| Mistral AI | |
| DeepSeek | |
| Cohere | |
| AI21 Labs |
申請手順:AWSコンソール → Amazon Bedrock → 左メニュー「モデルアクセス」
申請せずにAPIを叩くと AccessDeniedException が返る。初回だけ必ずこの手順を踏む。
コード例:モデルを切り替えて比較する
同じプロンプトをClaude・Novaで比較するシンプルなラッパー。
Claude 4.x系はBedrockのクロスリージョン推論経由でしか使えないモデルがある。直接モデルIDを指定すると ValidationException になる場合があるため、推論プロファイルID(jp. プレフィックス)を使う。日本リージョンへのルーティングになるためレイテンシも有利。
import boto3
import json
# ap-northeast-1(東京)でjp.プレフィックスを使う
client = boto3.client("bedrock-runtime", region_name="ap-northeast-1")
# Claude 4.x は "jp." プレフィックス付きの推論プロファイルIDを使う
MODELS = {
"claude-haiku": "jp.anthropic.claude-haiku-4-5-20251001-v1:0",
"claude-sonnet": "jp.anthropic.claude-sonnet-4-6",
"nova-lite": "amazon.nova-lite-v1:0",
"nova-pro": "amazon.nova-pro-v1:0",
}
def invoke_claude(model_key: str, prompt: str) -> str:
response = client.invoke_model(
modelId=MODELS[model_key],
body=json.dumps({
"anthropic_version": "bedrock-2023-05-31",
"max_tokens": 512,
"messages": [{"role": "user", "content": prompt}],
}),
contentType="application/json",
)
result = json.loads(response["body"].read())
return result["content"][0]["text"]
def invoke_nova(model_key: str, prompt: str) -> str:
response = client.invoke_model(
modelId=MODELS[model_key],
body=json.dumps({
"messages": [{"role": "user", "content": [{"text": prompt}]}],
"inferenceConfig": {"maxTokens": 512},
}),
contentType="application/json",
)
result = json.loads(response["body"].read())
return result["output"]["message"]["content"][0]["text"]
prompt = "AWSのLambdaとEC2の違いを3行で説明してください。"
print("=== Claude Haiku 4.5 ===")
print(invoke_claude("claude-haiku", prompt))
print("\n=== Amazon Nova Lite ===")
print(invoke_nova("nova-lite", prompt))
注意点:ClaudeとNovaはリクエスト・レスポンスの形式が異なる。Claudeは messages + anthropic_version、Novaは messages + inferenceConfig の形式を使う。
まとめ
- Bedrockのモデルはテキスト生成・埋め込み・画像生成の3カテゴリで整理できる
- 日本語テキスト生成はClaude Sonnet 4.6が定番、コスト重視ならHaiku 4.5かNova Lite
- Amazon Novaは申請不要でデフォルト利用可能、東京リージョン対応
- RAGのEmbeddingsはTitan Embeddings V2かCohere Embed Multilingual
- Claudeを使う前にコンソールでのアクセス申請が必要
- ClaudeとNovaでAPIのリクエスト形式が異なる点に注意
次回は料金体系——入出力トークン別の課金単価とコスト試算方法を整理する。