概要

Mamba2アーキテクチャのモデルです。 context sizeは512です。

dataset

hotchpotch/fineweb-2-edu-japaneseの1%のデータで10 epochs回しました。

tokenizer

Rakuten/RakutenAI-2.0-mini-instructを使用しました。 日本語対応LLMであり、vocab_sizeが48000と学習に使いやすそうだったからです。」

Downloads last month
11
Safetensors
Model size
286M params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train kurogane/mamba2-micro-test2