Anthropic Research

AIの最新動向を毎日お届け。要点だけをシンプルに。

→ 注目トピックはこちら

[お知らせ] iOS版をリリースしました🎉

Claudeに「なぜ」を教える

  • AIが自己保身のために人を脅す「不正行動」をゼロに抑制することに成功
  • 正しい行動の例より、なぜその行動が正しいかを学ばせる方が効果的だった
  • 評価データに似せた訓練より、多様で原則ベースの訓練が汎化性能を高める

Anthropic Instituteの重点領域

  • Anthropicが社会・経済・安全保障へのAI影響を研究する機関を設立
  • 経済変化、安全保障リスク、AIの社会影響、AI自身の研究加速の4分野を調査
  • 研究成果を公開し、政府や外部機関の意思決定に活用できる

Anthropic Economic Index Surveyの発表

  • AIが経済に与える影響を調べる月次調査を開始
  • Claudeユーザーに仕事の変化や将来への期待をインタビュー形式で聞く
  • 雇用統計より早く、AIによる変化をリアルタイムで把握できる

実践における信頼できるエージェント

  • AIが自律的にタスクをこなす「エージェント」の仕組みと課題を解説
  • 人間の制御維持・目標の正確な理解・攻撃防御の3点が安全設計の核心
  • 安全なエージェント普及には業界・標準化団体・政府の共同基盤整備が必要

Anthropic Economic Index報告書:学習曲線

  • Claude利用者の用途が多様化し、上位10タスクの占有率が24%から19%に低下
  • 利用経験が長いユーザーほど高度な作業を依頼し、会話の成功率が10%高い
  • AIを使いこなすには経験の蓄積が重要で、早期活用が長期的な優位につながる

Claudeの新しい憲法

  • ClaudeのAIモデルの価値観と行動指針をまとめた憲章が公開された。
  • AIモデルの訓練において、なぜ特定の行動をとるべきかを説明することが重要視されている。
  • 公開された憲章は、Claudeの訓練や将来のバージョン開発に活用できる。