GPT-5.5がMicrosoft Foundryで利用可能に:エンタープライズ対応AIプラットフォームの新展開

Microsoft AzureブログによるとOpenAIのGPT-5.5がMicrosoft Foundryで利用可能になった。これまでのクラウドベースのAIサービスとは異なり、企業が独自の条件でAIモデルを実行・適応・デプロイできる新たな選択肢を提供する。

Microsoft Foundryは単なるAIサービスではなく、「full-stack AI app and agent factory」として位置づけられている。クラウドからエッジまでの統合プラットフォームを通じて、開発者がAIを使うだけでなく、AIと共に創造することを可能にする。

オープンソースモデルgpt-ossの実用性

OpenAIはGPT-2以来初のオープンウェイトリリースとしてgpt-ossモデルシリーズを発表した。gpt-oss-120bは単一のエンタープライズGPUで実行可能で、gpt-oss-20bはローカル環境での実行に対応している。

これらのモデルは単なる簡略版ではなく、実世界のデプロイメントを念頭に設計されている。クラウドでの大規模推論からエッジでのエージェント処理まで、高速で実用的な性能を提供する。

オープンウェイトの特性により、ファインチューニング、蒸留、最適化が容易になる。ドメイン固有のコパイロット開発、オフライン推論用の圧縮、本格運用前のローカルプロトタイピングなど、Azure AI FoundryとFoundry Localが包括的なツールセットを提供する。(出典: OpenAI’s open‑source model: gpt‑oss on Azure AI Foundry and Windows AI Foundry

Responses APIによる統合開発体験

Azure OpenAIの新しいResponses APIは、チャット補完とAssistants APIの機能を統合した統一体験を提供する。このAPIはステートフルなマルチターン応答の生成を可能にし、computer-use-previewモデルもサポートしている。

実際のコード例として、以下のPythonスニペットでResponses APIを利用できる:

import os
from openai import OpenAI
client = OpenAI(
    api_key=os.getenv("AZURE_OPENAI_API_KEY"),
    base_url="https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
)
response = client.responses.create(
    model="gpt-4.1-nano", # Replace with your model deployment name
    input="This is a test.",
)
print(response.model_dump_json(indent=2))

このAPIは従来の個別APIと比較して、開発者がより簡潔なコードで複雑な対話型アプリケーションを構築できる利点がある。(出典: Use the Azure OpenAI Responses API - Microsoft Foundry

推論モデルの拡充とFunction Calling対応

GPT-5シリーズには推論特化モデルも含まれており、o3-mini、o1、o1-miniといったモデルが利用可能になっている。これらのモデルは複雑な論理的推論タスクに特化した設計となっている。

Function Callingについては、GPT-4.1、GPT-5シリーズの各バージョンで並列関数呼び出しがサポートされている。具体的には以下のモデルで利用可能:

  • gpt-4.1 (2025-04-14)
  • gpt-5 (2025-08-07)
  • gpt-5.2-chat (2025-12-11)
  • gpt-5.3-codex (2026-02-24)

これにより開発者は複数の外部システムとの統合を効率的に実装できる。(出典: How to use function calling with Azure OpenAI in Microsoft Foundry Models

まとめ

  • GPT-5.5とgpt-ossモデルを使って、企業独自の要件に合わせたAIアプリケーションを自社環境で構築・運用できる
  • Responses APIを導入することで、従来複数のAPIを組み合わせていたマルチターン対話アプリケーションの開発工数を大幅に削減できる
  • オープンウェイトのgpt-ossモデルでファインチューニングを実行し、ドメイン特化型のコパイロットを自社データで最適化できる
  • Function Calling対応のGPT-5シリーズを活用して、外部システムとの統合処理を並列実行し、エージェント型アプリケーションの応答速度を向上させることができる