Core Concepts
H2O-Danube 1.8B와 H2O-Danube2 1.8B는 1T 및 3T 토큰으로 학습된 개방형 대규모 언어 모델로, 다양한 벤치마크에서 우수한 성능을 보여주고 있다.
Abstract
이 기술 보고서는 H2O-Danube 1.8B와 H2O-Danube2 1.8B라는 두 개의 새로운 개방형 대규모 언어 모델을 소개한다.
H2O-Danube 1.8B는 1T 토큰으로 학습되었으며, H2O-Danube2 1.8B는 추가적으로 2T 토큰으로 학습되었다. 두 모델 모두 다양한 벤치마크에서 우수한 성능을 보여주고 있다. 특히 H2O-Danube2 1.8B는 2B 미만 모델 중 Open LLM Leaderboard에서 가장 높은 점수를 받았다.
H2O-Danube 모델들은 Llama 2와 Mistral의 핵심 원칙을 따르며, 대규모 언어 모델 학습을 위한 다양한 기술을 활용하고 개선하였다. 또한 감독 학습과 선호도 최적화를 통해 채팅 모델도 개발하였다.
이 모델들은 Apache 2.0 라이선스 하에 공개되어, 더 넓은 경제적 계층에게 대규모 언어 모델을 민주화할 수 있을 것으로 기대된다.
Stats
1T 토큰으로 학습된 H2O-Danube-1.8B와 추가 2T 토큰으로 학습된 H2O-Danube2-1.8B는 다양한 벤치마크에서 우수한 성능을 보여줌
H2O-Danube2-1.8B는 2B 미만 모델 중 Open LLM Leaderboard에서 가장 높은 점수를 받음
Quotes
"H2O-Danube는 Llama 2와 Mistral의 핵심 원칙을 따르며, 대규모 언어 모델 학습을 위한 다양한 기술을 활용하고 개선하였다."
"이 모델들은 Apache 2.0 라이선스 하에 공개되어, 더 넓은 경제적 계층에게 대규모 언어 모델을 민주화할 수 있을 것으로 기대된다."