Google Research Blog

AIの最新動向を毎日お届け。要点だけをシンプルに。

→ 注目トピックはこちら

[お知らせ] iOS版をリリースしました🎉

LLMにベイズ主義者のように推論させる

  • GoogleがLLMに確率統計を用いて推論を行う高度な学習手法を開発した。
  • 最適なモデルの思考過程を模倣させ、新しい情報から予測を更新する力を高めた。
  • 特定の訓練なしでも、買い物などの別分野で最適な提案が可能になる。

AIに地図の読み方を教える

  • AIが地図を読み、経路をたどるためのシステム開発について述べている。
  • 大規模言語モデル(MLLM)に地図上の経路認識を教えるため、合成データ生成が重要である。
  • 研究者は、生成された200万件の経路データセットを公開し、AIの空間認識能力向上に貢献する。

変化する世界におけるスケジューリング:時間変化するキャパシティでスループットを最大化する

  • クラウド環境で変動する計算資源において、中断されないジョブの効率的なスケジューリング手法を研究。
  • 優先度の低いジョブを中断せずに実行するため、オフラインとオンラインの状況で近似アルゴリズムを開発。
  • 可変な環境下でジョブの処理量を最大化し、クラウドの信頼性を高めるスケジューラー構築の基礎となる。

対一対一の対話を超えて:動的な人間とAIグループの会話の作成、シミュレーション、テスト

  • DialogLabは、人間とAIの多者間会話を設計、シミュレーション、テストする研究プロトタイプである。
  • このフレームワークは、会話の社会的設定と時間的な流れを分離し、スクリプトと即興性を組み合わせる。
  • 研究者や開発者は、DialogLabを使ってより自然で適応性のあるAIとの会話を構築し、教育やゲーム開発に応用できる。

AIが鳥類データで学習し、水中の謎を解き明かす

  • Google DeepMindのPerch 2.0は、鳥などの陸上動物の鳴き声で学習したAIモデル。
  • Perch 2.0は、水中の音響データ分類で優れた性能を示し、少ないデータでも高い精度を実現。
  • 研究者はPerch 2.0を活用し、海洋生態系の音響解析を効率化し、新たな発見に繋げられる。

ATLAS:多言語モデルのスケーリング則の実用的な考察

  • AIモデル利用者の半数以上が非英語言語を使用するが、既存の性能向上則(scaling laws)は英語中心である。
  • ATLASは、多言語モデルの性能を最大化するためのモデルサイズ、データ量、言語構成を決定する新しいルールを提供する。
  • この研究は、言語間の相乗効果を定量化し、計算資源の効率的な活用と低リソース言語への対応を可能にする。

エージェントシステムのスケールに関する科学へ:エージェントシステムが有効に機能するのはいつ、なぜか

  • AIエージェントの性能を向上させるために、180の構成を評価した研究。
  • マルチエージェントは、並列処理可能なタスクで効果的だが、順次的なタスクでは逆効果になる。
  • タスクの特性に応じて最適なアーキテクチャを予測するモデルを開発し、87%の精度で識別可能。

全国規模のランダム化比較試験におけるAIの活用:リアルワールドのバーチャルケアにおける共同研究

  • GoogleとIncluded Healthが協力し、会話型AIの臨床現場での活用を評価する全米規模のランダム化比較試験を開始する。
  • これまでのAI研究を基に、実際の患者を対象とした大規模な臨床試験で、AIの安全性と有効性を厳密に検証する。
  • 医療の専門知識へのアクセス向上や医師の負担軽減を目指し、AIの責任ある開発と安全な導入を促進する。

逐次型Attention:AIモデルを精度を維持しつつ、より軽量・高速化する

  • Google Researchが、大規模な機械学習モデルを効率化する「Sequential Attention」というアルゴリズムを開発した。
  • Sequential Attentionは、モデルの構成要素を順番に選択し、不要な冗長性を排除することで、精度を維持しつつモデルを軽量化する。
  • 読者は、Sequential Attentionにより、モデルの効率化、解釈性の向上、大規模データへの適用といったメリットを得られる。