ankuro.dev
← ブログ一覧に戻る
【Amazon Bedrock入門②】Bedrockのモデル一覧——Claude・Nova・Llamaの選び方
2026-03-27#AWS#Bedrock#Claude#生成AI#入門

【Amazon Bedrock入門②】Bedrockのモデル一覧——Claude・Nova・Llamaの選び方

BedrockにはClaude・Amazon Nova・Llama・Mistral・Cohereなど多数のモデルがある。

「どれを使えばいいかわからない」という状態から、用途と予算に合わせて迷わず選べるようになるのがこの記事のゴール。


モデルの3カテゴリ

Bedrockのモデルはまず用途で3つに分類される。

カテゴリ 主な用途 代表モデル
テキスト生成 チャット・要約・コード生成・翻訳 Claude・Nova・Llama・Mistral
埋め込み(Embeddings) RAGのベクトル化・類似検索 Titan Embeddings・Cohere Embed
画像・動画生成 画像の生成・編集・動画生成 Nova Canvas・Stable Diffusion

ほとんどのユースケースは「テキスト生成」か「埋め込み(RAG用)」のどちらか。


Claudeシリーズ(Anthropic)

Bedrockで最も広く使われているのがAnthropicのClaude。日本語品質が高く、指示追従性に優れる。

Haiku・Sonnet・Opusの違い

モデル 特徴 向いている用途 コスト感
Claude Haiku 4.5 高速・軽量 バッチ処理・大量リクエスト・要約・分類 最安
Claude Sonnet 4.6 バランス型 チャットBot・コード支援・RAG 中程度
Claude Opus 4.6 最高精度 複雑な推論・長文分析・高品質な文章生成 最高

選び方の基本

  • レスポンス速度とコストが優先 → Haiku
  • 品質と速度のバランス → Sonnet
  • 精度が最優先で量が少ない → Opus

日常的なWebアプリやチャットBotならSonnetから始めるのが無難。コストが気になり始めたらHaikuへの切り替えを検討する。

実際のモデルID(2026年3月時点)

Claude 4.x系はクロスリージョン推論(Cross-Region Inference)が前提となるモデルが多く、APIから呼び出す際は us. プレフィックス付きの推論プロファイルIDを使う。

# コードから呼び出す際に使うID(jp. = アジア太平洋クロスリージョン推論)
jp.anthropic.claude-haiku-4-5-20251001-v1:0   ← Claude Haiku 4.5
jp.anthropic.claude-sonnet-4-6                ← Claude Sonnet 4.6
jp.anthropic.claude-opus-4-6-v1               ← Claude Opus 4.6

jp. プレフィックスを付けることで日本・アジア太平洋リージョンへのルーティングになり、日本から呼び出す際のレイテンシが改善される。us. プレフィックスでも動くが、US東西リージョン経由になる。コードで直接ベースモデルID(プレフィックスなし)を使うと ValidationException になる場合があるため注意。

アクセス申請が必要。コンソール(Bedrock → モデルアクセス)からAnthropicの利用規約に同意して申請する(多くは即時承認)。


Amazon Novaシリーズ

2024年末にAmazonがリリースした独自の新世代テキスト生成モデル。申請不要でデフォルト利用可能。

テキスト生成(Nova Micro / Lite / Pro / Premier)

モデル 特徴 向いている用途
Nova Micro 最軽量・最速 単純な分類・キーワード抽出
Nova Lite 軽量・マルチモーダル テキスト+画像入力、コスト重視
Nova Pro バランス型・マルチモーダル 汎用チャット・RAG・エージェント
Nova Premier 最高精度 複雑なタスク・長文処理
amazon.nova-micro-v1:0     ← Nova Micro
amazon.nova-lite-v1:0      ← Nova Lite(東京リージョン対応)
amazon.nova-pro-v1:0       ← Nova Pro
amazon.nova-premier-v1:0   ← Nova Premier

Nova Lite / Pro はマルチモーダル対応(テキスト+画像を同時入力可能)。東京リージョン(ap-northeast-1)でも利用できるため、レイテンシ重視の用途に向く。

画像・動画生成(Nova Canvas / Reel)

amazon.nova-canvas-v1:0    ← 画像生成(東京リージョン対応)
amazon.nova-reel-v1:1      ← 動画生成(us-east-1のみ)

Meta Llamaシリーズ

オープンソース系のモデル。英語タスクで強く、コスト重視のケースで選択肢になる。申請不要

Llama 4(最新世代)

2026年初頭リリースのLlama 4はマルチモーダル対応(テキスト+画像入力)。

meta.llama4-maverick-17b-instruct-v1:0   ← Llama 4 Maverick 17B
meta.llama4-scout-17b-instruct-v1:0      ← Llama 4 Scout 17B

Llama 3.x系

meta.llama3-3-70b-instruct-v1:0    ← Llama 3.3 70B(最新の3.x)
meta.llama3-2-11b-instruct-v1:0    ← Llama 3.2 11B(マルチモーダル)
meta.llama3-1-8b-instruct-v1:0     ← Llama 3.1 8B(軽量・高速)

日本語品質についての注意:Llamaは英語タスクでの性能が高い一方、日本語の品質はClaudeに劣る場面が多い。日本語が必要なプロダクトではClaudeかNovaを優先する。


Mistral AIシリーズ

コード生成に強いモデルがあり、開発支援用途で評価が高い。申請不要

mistral.mistral-large-3-675b-instruct    ← Mistral Large 3(最新・マルチモーダル)
mistral.devstral-2-123b                  ← Devstral 2(コーディング特化)
mistral.ministral-3-8b-instruct          ← Ministral 8B(軽量)

特にコード生成・レビューに特化した Devstral はエンジニアリング用途で検討する価値がある。


Cohereシリーズ

Enterprise向けRAGで評価が高い。埋め込みモデルの品質も高く、RAG構築での採用例が多い。申請不要

cohere.command-r-plus-v1:0          ← Command R+(テキスト生成)
cohere.command-r-v1:0               ← Command R(テキスト生成)
cohere.embed-multilingual-v3        ← Embed Multilingual(多言語埋め込み)
cohere.embed-v4:0                   ← Embed V4(テキスト+画像対応)
cohere.rerank-v3-5:0                ← Rerank 3.5(検索結果の再ランキング)

日本語を含む多言語RAGには Embed Multilingual が有効な選択肢。


Titanシリーズ(Amazon)

AmazonオリジナルのTitanは埋め込みモデルとして活用するのがメイン。申請不要

amazon.titan-embed-text-v2:0       ← Titan Embeddings V2(RAG用・推奨)
amazon.titan-embed-image-v1:0      ← Titan Multimodal Embeddings

テキスト生成のTitanはNovaシリーズに事実上置き換えられているため、新規開発ではNovaを使う。


その他のモデル

モデル モデルID 特徴
DeepSeek R1 deepseek.r1-v1:0 推論・数学特化モデル、申請不要
AI21 Jamba 1.5 Large ai21.jamba-1-5-large-v1:0 長コンテキスト対応(us-east-1のみ)

モデル選択チャート

テキスト生成が必要
  ├── 日本語が必要
  │     ├── 高品質・汎用 → Claude Sonnet 4.6
  │     ├── コスト重視・高速 → Claude Haiku 4.5 or Nova Micro/Lite
  │     └── 複雑な推論 → Claude Opus 4.6
  ├── 英語のみ、コスト重視 → Llama 3.1/3.3 or Nova Micro
  └── コード生成特化 → Mistral Devstral

RAGのベクトル化が必要
  ├── 日本語 → Titan Embeddings V2 or Cohere Embed Multilingual
  └── 多言語・高品質 → Cohere Embed V4

画像・動画生成が必要
  ├── 画像生成 → Nova Canvas(申請不要)
  └── 動画生成 → Nova Reel(us-east-1のみ)

迷ったらこれ

シーン 推奨
とりあえず試したい(日本語) Claude Haiku 4.5
本番のチャットBot(日本語) Claude Sonnet 4.6
申請なしで今すぐ試したい Amazon Nova Lite
RAGのEmbeddings Titan Embeddings V2
コード生成 Mistral Devstral 2
推論・数学タスク DeepSeek R1

アクセス申請まとめ

申請必要 申請不要(デフォルト利用可)
Anthropic Claude(全モデル) Amazon Nova・Titan
Meta Llama
Mistral AI
DeepSeek
Cohere
AI21 Labs

申請手順:AWSコンソール → Amazon Bedrock → 左メニュー「モデルアクセス」

申請せずにAPIを叩くと AccessDeniedException が返る。初回だけ必ずこの手順を踏む。


コード例:モデルを切り替えて比較する

同じプロンプトをClaude・Novaで比較するシンプルなラッパー。

Claude 4.x系はBedrockのクロスリージョン推論経由でしか使えないモデルがある。直接モデルIDを指定すると ValidationException になる場合があるため、推論プロファイルID(jp. プレフィックス)を使う。日本リージョンへのルーティングになるためレイテンシも有利。

import boto3
import json

# ap-northeast-1(東京)でjp.プレフィックスを使う
client = boto3.client("bedrock-runtime", region_name="ap-northeast-1")

# Claude 4.x は "jp." プレフィックス付きの推論プロファイルIDを使う
MODELS = {
    "claude-haiku":  "jp.anthropic.claude-haiku-4-5-20251001-v1:0",
    "claude-sonnet": "jp.anthropic.claude-sonnet-4-6",
    "nova-lite":     "amazon.nova-lite-v1:0",
    "nova-pro":      "amazon.nova-pro-v1:0",
}

def invoke_claude(model_key: str, prompt: str) -> str:
    response = client.invoke_model(
        modelId=MODELS[model_key],
        body=json.dumps({
            "anthropic_version": "bedrock-2023-05-31",
            "max_tokens": 512,
            "messages": [{"role": "user", "content": prompt}],
        }),
        contentType="application/json",
    )
    result = json.loads(response["body"].read())
    return result["content"][0]["text"]

def invoke_nova(model_key: str, prompt: str) -> str:
    response = client.invoke_model(
        modelId=MODELS[model_key],
        body=json.dumps({
            "messages": [{"role": "user", "content": [{"text": prompt}]}],
            "inferenceConfig": {"maxTokens": 512},
        }),
        contentType="application/json",
    )
    result = json.loads(response["body"].read())
    return result["output"]["message"]["content"][0]["text"]

prompt = "AWSのLambdaとEC2の違いを3行で説明してください。"

print("=== Claude Haiku 4.5 ===")
print(invoke_claude("claude-haiku", prompt))

print("\n=== Amazon Nova Lite ===")
print(invoke_nova("nova-lite", prompt))

注意点:ClaudeとNovaはリクエスト・レスポンスの形式が異なる。Claudeは messages + anthropic_version、Novaは messages + inferenceConfig の形式を使う。


まとめ

  • Bedrockのモデルはテキスト生成・埋め込み・画像生成の3カテゴリで整理できる
  • 日本語テキスト生成はClaude Sonnet 4.6が定番、コスト重視ならHaiku 4.5Nova Lite
  • Amazon Novaは申請不要でデフォルト利用可能、東京リージョン対応
  • RAGのEmbeddingsはTitan Embeddings V2Cohere Embed Multilingual
  • Claudeを使う前にコンソールでのアクセス申請が必要
  • ClaudeとNovaでAPIのリクエスト形式が異なる点に注意

次回は料金体系——入出力トークン別の課金単価とコスト試算方法を整理する。


前回:入門①——Amazon Bedrockとは何か次回:入門③——Bedrockの料金体系