Yandex YaLM

5 comments
YaLM 100Bの力を解き放ちましょう。これは、1,000億のパラメータを使用してテキストを生成および処理する、GPTのようなニューラルネットワークです。世界中の開発者や研究者向けに無料で提供しています。0
ウェブサイトを訪問する

What is Yandex YaLM?

YaLM 100B は、テキストを生成および処理するための GPT ライクなニューラルネットワークです。世界中の開発者や研究者が自由に使用できます。

このモデルは 1,000 億個のパラメーターを活用しています。800 個の A100 グラフィックカードと 1.7 TB のオンラインテキスト、書籍、および英語とロシア語の無数の他のソースのクラスターでモデルをトレーニングするのに 65 日かかりました。

トレーニングの詳細と、アクセラレーションと安定化に関するベストプラクティスは、Medium(英語)と Habr(ロシア語)の記事で確認できます。

モデルのトレーニングには DeepSpeed を使用し、Megatron-LM の例からインスピレーションを受けました。ただし、このリポジトリのコードは、モデルのトレーニングに使用されたコードと同じではありません。むしろ、モデルを推論するために必要な最小限の変更を施した DeepSpeed リポジトリからのストック例です。

More information on Yandex YaLM

Launched
2023
Pricing Model
Free
Starting Price
Global Rank
Country
Month Visit
<5k
Tech used
Yandex YaLM was manually vetted by our editorial team and was first featured on September 4th 2024.
Aitoolnet Featured banner

Yandex YaLM 代替ソフト

もっと見る 代替ソフト
  1. YandexGPT 2は、言語モデルとして大幅な改善を示すAI言語モデルですが、根拠のない回答や提案を提供する可能性があります

  2. GPT-NeoX-20Bは、GPT-NeoXライブラリを使用してPile上でトレーニングされた、200億パラメータの自己回帰言語モデルです。

  3. Alfred-40B-0723はFalcon-40Bのファインチューニング版で、ヒューマンプレイヤーとの強化学習から得られました。

  4. 大規模トランスフォーマーモデルの継続的な研究トレーニング

  5. TinyLlama プロジェクトは、3 兆トークンに対して 1.1B Llama モデルを事前学習するオープンな取り組みです。