こんにちは、AIニュースアプリ Morning AI 開発者の矢野哲平です。この記事ではOpenAIが発表したサイバーセキュリティ向けの新モデルとアクセスプログラムの拡大について触れます。

Trusted access for the next era of cyber defense - OpenAI

「制限する」から「誰がアクセスするかを管理する」へ

OpenAIがサイバーセキュリティへのアプローチを大きく転換しました。

これまでのAIモデルは、セキュリティ関連のリクエストに対して一律に制限をかける方向でした。脆弱性の調査やコード解析のような正当な防御目的の作業でも、モデルが回答を拒否してしまうことがあったようです。セキュリティパートナーからは「デュアルユース(攻撃にも防御にも使える)なサイバークエリに対して、以前のGPTモデルが過剰に拒否する」という声が上がっていました。

新しいアプローチでは、モデルの機能を制限することよりも、高度な機能にアクセスできる人物を検証することに重点を置いています。

Trusted Access for Cyberプログラムとは

2026年2月にGPT-5.3-Codexのリリースと合わせて立ち上がったプログラムです。今回の発表でティアが追加され、検証レベルに応じてより高度な機能が解放される仕組みになりました。

アクセスは3段階に分かれています。

ティア 対象 内容
Standard 一般ユーザー 自動分類器によるサイバー活動のモニタリング
Verified Identity セキュリティ専門家 chatgpt.com/cyber で本人確認を完了した個人
Invite-Only セキュリティ研究者 招待制、より制限の緩いモデルへのアクセス

検証レベルが上がるほど、利用できる機能の幅が広がります。OpenAIは数千人の個人と数百のセキュリティチームへのアクセス拡大を計画しています。

GPT-5.4-Cyberの位置づけ

今回の目玉はGPT-5.4-Cyberです。最上位ティアで承認されたユーザーが利用できるモデルで、脆弱性の調査や分析といったセンシティブなサイバーセキュリティタスクに対する制限が緩和されています。

前提として、GPT-5.3-CodexはOpenAIのPreparedness Frameworkにおいてサイバーセキュリティ能力が「High」に分類された初のモデルでした。数時間から数日にわたって自律的に複雑なタスクを実行できる能力を持ち、脆弱性の発見と修正を大幅に加速できるとされています。GPT-5.4-Cyberはその路線をさらに推し進めた専用バリアントです。

ただし、初期のアクセスは審査済みのセキュリティベンダー、組織、研究者に限定されており、段階的に拡大される予定です。

この話を聞いてAnthropicの最上位モデル、Mythosの話を思い浮かべた人も多いかもしれません。

セーフガードの仕組み

制限を緩和する代わりに、監視と安全策は強化されています。

  • 明らかに悪意のあるリクエスト(認証情報の窃取など)を拒否するセーフティトレーニング
  • サイバー活動の異常を検知する自動分類器ベースのモニタリング
  • データの持ち出し、マルウェアの作成・展開、破壊的または無許可のテストの禁止

サイバーセキュリティの難しさは「自分のコードの脆弱性を見つけて」というリクエストが、責任ある脆弱性開示の一環なのか、悪用目的なのかが区別しにくい点にあります。だからこそ、モデル側の制限ではなく、利用者側の身元確認で対応するという判断は理にかなっていると思います。

1,000万ドルのAPI クレジット

OpenAIはCybersecurity Grant Programを通じて1,000万ドルのAPIクレジットを提供すると発表しました。対象はオープンソースソフトウェアの脆弱性発見や重要インフラの防御に実績のあるチームが優先されます。

資金面でのサポートがあることで、セキュリティ研究者がコストを気にせずAIを活用できるようになるのは大きいかなと。

制限の緩和がリスクにならないか

正直なところ、気になるのはここです。

セキュリティの世界では「信頼されたアクセス」が侵害される事例は珍しくありません。審査を通過したアカウントが悪用されるリスクは残ります。OpenAIも段階的なロールアウトや継続的なモニタリングでそこに対応する姿勢を見せていますが、プログラムの規模が拡大したときにどこまで管理できるかは未知数です。

一方で、防御側がAIを十分に活用できないまま、攻撃側だけがAIの恩恵を受けるという状況は避けるべきです。そのバランスを取ろうとしている点は評価できます。