Anthropic News

AIの最新動向を毎日お届け。要点だけをシンプルに。

→ 注目トピックはこちら

[お知らせ] iOS版をリリースしました🎉

Anthropic Instituteのご紹介

  • Anthropicが、AIの社会的課題を専門に扱う研究機関を設立しました。
  • 開発現場で得た知見をもとに、AIが雇用や法律に与える影響を分析します。
  • 急激に進化するAIが社会にもたらす変化を予測し、備えるための助けになります。
Anthropic News

Department of Warの現状

  • Anthropicが米国防省から安全保障上のリスクに指定された。
  • 利用制限は国防省の特定契約のみで、一般の利用には影響しない。
  • 安全保障に支障が出ないよう、軍へのAI提供と支援は当面継続する。
Anthropic News

ピート・ヘグセス陸軍長官の発言に関する声明

  • 米政府がAnthropic社を安全保障上のリスク企業に指定すると発表しました。
  • 監視や自律型兵器へのAI利用を拒否したことで政府との交渉が決裂しました。
  • 一般利用者や民間企業のClaude利用には影響がないと説明されています。
Anthropic News

Anthropicの責任あるスケーリングポリシー:バージョン3.0

  • Anthropicは、AIシステムのリスク軽減のための自主的な枠組みである「Responsible Scaling Policy (RSP)」のバージョン3.0を公開した。
  • RSPは、AIの能力向上に伴う新たなリスクに対応するため、条件付きの安全対策(ASL)を段階的に導入する仕組みである。
  • この政策は、自社での安全対策強化、業界全体での安全基準の向上、そして政府との連携によるより強固な安全体制の構築を目指している。
Anthropic News

蒸留攻撃の検出と防止

  • 複数のAI研究機関が、Claudeの機能を不正に抽出して自社モデルの改善を試みていた。
  • 競合他社が「蒸留」という手法で、他社の高度なAI機能を短期間かつ低コストで取得している。
  • AIモデルの安全性が損なわれ、国家安全保障上のリスクや輸出規制の有効性が低下する恐れがある。
Anthropic News

最先端のサイバーセキュリティ機能を防御側へ提供

  • Claude Code Securityが発表され、コードの脆弱性をAIで検出し、修正案を提案する機能が限られたプレビューで提供開始。
  • 従来のツールが捉えにくい複雑な脆弱性を、AIが人間のようにコードを理解して発見し、誤検知を減らす仕組み。
  • 開発チームはClaude Code Securityで検出された問題と修正案を確認し、最終的な判断と適用を行うことで、コードの安全性を向上できる。
Anthropic News

Anthropic、Public First Actionに2000万ドルを寄付

  • AI技術の進化は急速に進み、社会に大きな利益と同時に危険性も伴う。
  • Anthropicは、AI政策に関する教育や安全対策を支援するため、Public First Actionに2000万ドルを寄付する。
  • この寄付は、AI技術の健全な発展とリスク管理を促し、米国がAI分野でリーダーシップを維持することを目指す。
Anthropic News

データセンターからの電力価格上昇に関する考察

  • Anthropicは、データセンターによる電力価格上昇に対し、消費者の負担をカバーする方針を発表した。
  • 電力網のインフラ費用を全額負担し、新規電力の調達や電力使用量の抑制により価格高騰を防ぐ。
  • 消費者への影響を減らしつつAIインフラを整備することで、地域社会への貢献とAIの普及を目指す。
Anthropic News

Claude Opus 4.6をご紹介

  • Claude Opus 4.6は、コーディング能力や複雑な問題解決能力が向上した最新モデル。
  • 100万トークンのコンテキストウィンドウを搭載し、高度な推論や計画立案が可能。
  • 金融分析、ドキュメント作成、コーディングなど、プロフェッショナルな業務を支援。
Anthropic News