OpenAI Responses API の長時間実行エージェント対応アップデート
OpenAI が Responses API を大幅にアップデートし、長時間実行エージェントの課題を解決する3つの新機能を発表しました。Server-side Compaction、Hosted Shell Containers、Skills API の導入により、エージェントは数時間から数日間の継続実行が可能になります。
Server-side Compaction による「コンテキスト健忘症」の解決
従来のAIエージェントは長時間のタスク実行中にトークン制限に達し、過去の推論を失う問題がありました。OpenAI の Server-side Compaction はこの問題を根本的に解決します。
この機能は単純な履歴削除ではなく、エージェントの過去の行動を圧縮状態に要約し、重要なコンテキストを保持しながらノイズを除去します。
# 自動コンパクション有効化
curl -X POST https://api.openai.com/v1/responses \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-5.2",
"store": false,
"compaction": {
"mode": "auto",
"threshold": 100000
}
}'
e-commerce プラットフォーム Triple Whale の実証データでは、エージェント Moby が500万トークンと150回のツール呼び出しを含むセッションで精度を維持したまま動作しました。(出典: https://venturebeat.com/orchestration/openai-upgrades-its-responses-api-to-support-agent-skills-and-a-complete)
Hosted Shell Containers による完全な実行環境
新しい Shell Tool は container_auto オプションで OpenAI ホスト型の Debian 12 環境を提供します。これは単なるコードインタープリターではなく、各エージェントに専用のターミナル環境を提供します。
# Hosted Shell Container の使用例
import openai
response = openai.responses.create(
model="gpt-5.2",
tools=[{
"type": "shell",
"shell": {
"container": "container_auto"
}
}],
messages=[{
"role": "user",
"content": "Python でデータ変換スクリプトを作成し、/mnt/data に保存してください"
}]
)
この環境には以下が事前インストールされています:
- Python 3.11、Node.js 22、Java 17、Go 1.23、Ruby 3.1
/mnt/dataによる永続ストレージ- インターネット接続によるライブラリインストールと外部API連携
データエンジニアは ETL ミドルウェアを構築せずに、これらのホスト型コンテナで高性能データ処理タスクを実装できます。(出典: https://venturebeat.com/orchestration/openai-upgrades-its-responses-api-to-support-agent-skills-and-a-complete)
Skills API による標準化されたエージェント機能
Skills API は OpenAI チームが開発した新しい標準で、エージェントの機能を構造化された形で定義できます。従来のカスタム関数定義と比較して、再利用性と保守性が向上します。
{
"type": "skill",
"skill": {
"name": "data_analysis",
"description": "データ分析と可視化を実行",
"parameters": {
"data_source": {"type": "string"},
"analysis_type": {"type": "string", "enum": ["statistical", "trend", "correlation"]}
}
}
}
Skills 標準により、開発者は複数のエージェント間で機能を共有し、プロンプトの反復作業を削減できます。(出典: https://openai.com/index/new-tools-for-building-agents/)
実装アーキテクチャの詳細
OpenAI の公式発表では、Server-side Compaction の内部実装について「エージェントの過去の行動を圧縮状態に要約し、重要なコンテキストを保持する」と説明されていますが、具体的な圧縮アルゴリズムやメモリ管理の詳細は明らかにされていません。
Microsoft Azure の文書によると、コンパクションアイテムは暗号化され、人間が読める形式ではないとされています。これは OpenAI が独自の状態圧縮技術を開発していることを示唆しています。(出典: https://learn.microsoft.com/en-us/azure/foundry/openai/how-to/responses)
まとめ
- Server-side Compaction を使用して500万トークン規模の長時間エージェントセッションを精度を保ったまま実行できる
- Hosted Shell Containers の
/mnt/data永続ストレージで、セッション間のデータ保持を自社ポリシーで管理できるようになる - Skills API の標準化により、複数エージェント間での機能共有とプロンプト開発工数を大幅に削減できる
container_autoオプションで ETL ミドルウェア構築なしに高性能データ処理パイプラインを即座に構築できる