ユースケース
注目
ガイド
お知らせ
事例研究
Azure AI FoundryでのDeepSeek R1のセットアップ:完全ガイド(2025年2月)
2025/02/06

Microsoft が最近 Azure AI Foundry で DeepSeek R1 をリリースしたことで、開発者や AI 愛好者はこの強力なモデルで無料で実験するユニークな機会を得ました(今のところ)。セットアッププロセスを経験したばかりの私が、始めるための詳細なガイドを共有したいと思います。
DeepSeek R1 の重要性
DeepSeek R1 のリリースは、AI サービス市場における大きな変革を表しています。このモデルは、OpenAI の O1 と同様の機能を約 4%(!!)のコストで提供し、Amazon Bedrock、Fireworks.ai、Kluster.ai、OpenRouter.ai を含む主要なプラットフォームで広く利用可能です。
この急激なコスト削減は、特に複雑な推論やビジネスロジック処理を必要とするアプリケーションに影響を与えます。AI コンピューティングがクラウドストレージや処理能力のようにコモディティ化されるにつれ、プロバイダーは主に速度、スループット、およびコストで競争するようになります。
この AI コンピューティングの民主化は、大企業のみならず、より幅広い組織にとって高度な自動化と意思決定システムを実用的にし、業界全体で AI エージェントと自動化システムの採用を加速させる可能性があります。

Photo by Solen Feyissa on Unsplash
前提条件: Azure の準備を整える
まず、Azure のアクティブなサブスクリプションを持っていることを確認してください。portal.azure.com にアクセスし、右上のサブスクリプションステータスを確認しましょう。Azure を初めて利用する場合は、無料試用版または従量制プランから始めることができます。
Azure AI Foundry の環境をセットアップする
セットアッププロセスは階層構造を持ち、まずハブを作成し、その中にプロジェクトを作成します。ハブは、セキュリティ、接続、コンピューティングリソースを管理するマスターコンテナのようなものです。それを設定する方法は次のとおりです:
ハブの作成
Azure Portal のトップの検索バーを使用して Azure AI Foundry に移動します。そこに着いたら:
「+ Create」ボタンをクリックして「Hub」を選択します。
ハブの目的を反映する説明的な名前を選びます。たとえば、「DeepSeekTestingHub」のように。
サブスクリプションとリソースグループを選択します(必要に応じて新しいリソースグループを作成します)
最適なパフォーマンスのために場所に近い地域を選択します
「Review + Create」をクリックしてデプロイを待ちます

ハブ内でプロジェクトを作成する
ハブが準備できたら、その中にプロジェクトを作成する必要があります。ここで、DeepSeek R1 を実際に扱います:
新しく作成したハブを開き「+ Create」をクリックします
「Project」を選択し、プロジェクトに明確で記述的な名前を付けます
必要に応じてコンピュート設定を構成します
「Review + Create」をクリックしてデプロイを待ちます

DeepSeek R1 のデプロイ
デプロイプロセスは驚くほど簡単です:
プロジェクトに移動し、Azure AI Foundry を開きます。

モデルカタログに移動し、DeepSeek-R1 を選択してデプロイオプションをクリックします。


DeepSeek R1 を使用するためのベストプラクティス
Microsoft のガイドラインと個人的な経験に基づいて、以下が主なヒントです:
全ての指示をシステムプロンプトではなく、ユーザープロンプトに直接入れてください
数学的なタスクの場合は、モデルに「段階的に推論する」よう指示し、最終答えには \boxed{} を使用してください
パフォーマンスを評価する際は、複数のテストを実行し、その結果を平均化してください
最終ユーザーに示す場合、チェーンオブソートコンテンツ( タグ)に注意を払いましょう。より粗い内容や「より有害な」テキストが含まれている可能性があります。
Microsoft は DeepSeek R1 が「厳格なレッドチーミングと安全評価」を受けたと主張しており、Azure AI Foundry にはデフォルトで組み込みのコンテンツ安全性が含まれています:
DeepSeek R1 は、モデルの行動に対する自動評価や広範なセキュリティレビューを含む厳格なレッドチーミングと安全評価を受けており、潜在的なリスクを軽減しています。Azure AI 内容安全性により、デフォルトでコンテンツフィルタリングが利用可能で、柔軟性を持たせるためのオプトアウトオプションも提供されています。また、安全評価システムにより、顧客はアプリケーションを効率的にテストしてからのデプロイが可能になります。これらの安全策は、企業が自信を持って AI ソリューションをデプロイできる安全でコンプライアンスを守った責任ある環境を提供するためのものです。
Azure の DeepSeek R1 のコンテキストウィンドウの制限
Azure の実装における 4K 出力トークン制限は大きな制約です。このモデルは最大 128K トークン(約 400~500 ページの本)までの入力を処理できますが、出力能力は約 16 ページのテキストに制限されています。この制約は、通常、出力生成が入力処理よりも多くの計算リソースを必要とするため、Microsoft がプレビューを無料で提供できるようにする一因と考えられます。
このトレードオフにより、Azure の実装は文書分析や要約作業には適していますが、長文生成や長いコードの完成には最適ではない可能性があります。
より長い出力を必要とするアプリケーションについては、サーバーレスAPIプロバイダーを通じた代替のデプロイを検討してください。ただし、コストは高くなる可能性があります。これらのオルタナティブとそのトレードオフの詳細については、今後の投稿で探求する予定です。

結論
Azure AI Foundry における DeepSeek R1 のセットアップは簡単なプロセスであり、プロジェクトに強力な AI 機能をもたらします。このモデルはいくつかの制限 — たとえば 4,096 トークンの出力制限 — を持っていますが、推論タスクにおける強さと豊富な入力コンテキストウィンドウにより、どの AI ツールキットにも貴重な追加となります。何より、現在は無料で利用可能であり、本番環境で高度な AI 機能を試すための絶好の機会です。