Google Research Blog

AIが鳥類データで学習し、水中の謎を解き明かす

  • Google DeepMindのPerch 2.0は、鳥などの陸上動物の鳴き声で学習したAIモデル。
  • Perch 2.0は、水中の音響データ分類で優れた性能を示し、少ないデータでも高い精度を実現。
  • 研究者はPerch 2.0を活用し、海洋生態系の音響解析を効率化し、新たな発見に繋げられる。

ATLAS:多言語モデルのスケーリング則の実用的な考察

  • AIモデル利用者の半数以上が非英語言語を使用するが、既存の性能向上則(scaling laws)は英語中心である。
  • ATLASは、多言語モデルの性能を最大化するためのモデルサイズ、データ量、言語構成を決定する新しいルールを提供する。
  • この研究は、言語間の相乗効果を定量化し、計算資源の効率的な活用と低リソース言語への対応を可能にする。

エージェントシステムのスケールに関する科学へ:エージェントシステムが有効に機能するのはいつ、なぜか

  • AIエージェントの性能を向上させるために、180の構成を評価した研究。
  • マルチエージェントは、並列処理可能なタスクで効果的だが、順次的なタスクでは逆効果になる。
  • タスクの特性に応じて最適なアーキテクチャを予測するモデルを開発し、87%の精度で識別可能。

全国規模のランダム化比較試験におけるAIの活用:リアルワールドのバーチャルケアにおける共同研究

  • GoogleとIncluded Healthが協力し、会話型AIの臨床現場での活用を評価する全米規模のランダム化比較試験を開始する。
  • これまでのAI研究を基に、実際の患者を対象とした大規模な臨床試験で、AIの安全性と有効性を厳密に検証する。
  • 医療の専門知識へのアクセス向上や医師の負担軽減を目指し、AIの責任ある開発と安全な導入を促進する。

逐次型Attention:AIモデルを精度を維持しつつ、より軽量・高速化する

  • Google Researchが、大規模な機械学習モデルを効率化する「Sequential Attention」というアルゴリズムを開発した。
  • Sequential Attentionは、モデルの構成要素を順番に選択し、不要な冗長性を排除することで、精度を維持しつつモデルを軽量化する。
  • 読者は、Sequential Attentionにより、モデルの効率化、解釈性の向上、大規模データへの適用といったメリットを得られる。