Core Concepts
発達に即した小規模コーパスでの効率的な言語モデルの事前学習を奨励し、認知モデリングに関連する研究を促進することが本チャレンジの目的である。
Abstract
本文書は、第2回BabyLMチャレンジの概要を説明するものである。
前年度の成功を受け、本チャレンジは2024/2025年に再び開催される。目的は変わらないが、いくつかのルール変更が行われる。
主な変更点は以下の通り:
論文トラックを新設し、モデルベースの提出物以外も受け付ける。認知科学に基づく新しい評価指標や特定のBabyLMモデルの詳細分析などが対象となる。
事前学習データの制限を緩和し、参加者が自身のデータセットを構築することを許可する。ただし100M語または10M語の上限は維持する。
マルチモーダルトラックを新設し、テキストのみと画像-テキストのマルチモーダルデータセットを提供する。
評価は前年度とほぼ同様だが、マルチモーダルタスクも追加される。また、評価パイプラインの使いやすさが改善される。
提出プロセスは前年度と同様、Dynabenchプラットフォームを使用する。論文提出はOpenReviewを通じて行う。
Stats
100M語のテキストデータセットには、CHILDESからの15M語が含まれる。
マルチモーダルデータセットには、50M語のテキストデータと50M語の画像-テキストデータが含まれる。画像-テキストデータは、Localized Narratives (27M語)とConceptual Captions 3M (23M語)から構成される。