Add Japanese language support for nanochat

- Add NANOCHAT_LANG environment variable to switch languages
- Implement JapaneseInstructTask and JCommonsenseQA tasks
- Update dataset.py to support Japanese prompts and data loading
- Add Japanese evaluation in chat_eval.py and tok_eval.py
- Include speedrun_spark_ja.sh for Japanese training runs
- Add comprehensive test suite for Japanese support
- Include Kiro specification documents (requirements, design, tasks)

🤖 Generated with [Claude Code](https://claude.com/claude-code)

Co-Authored-By: Claude <noreply@anthropic.com>
This commit is contained in:
karaage0703 2025-12-01 21:26:34 +09:00
parent 05a051dbe9
commit e1e836763e
14 changed files with 1655 additions and 21 deletions

View File

@ -0,0 +1,415 @@
# Design Document: japanese-support
## Overview
**Purpose**: nanochat に日本語テキストの学習・推論能力を追加し、日本語での対話が可能な ChatGPT クローンを実現する。
**Users**: 日本語で LLM を学習・評価したい開発者、日本語で nanochat と対話したいユーザー。
**Impact**: 既存の英語専用パイプラインを多言語対応に拡張。トークナイザ、データセット、SFT、評価の各段階で日本語を処理可能にする。
### Goals
- 日本語テキストを効率的にトークナイズし学習に使用できる
- 日本語会話データで SFT を実行できる
- JCommonsenseQA で日本語能力を定量評価できる
- Web UI で日本語の入出力ができる
### Non-Goals
- 日本語専用の最適化された SPLIT_PATTERN の開発 (将来検討)
- JGLUE の全タスク対応 (JCommonsenseQA のみ)
- 日英同時学習の最適化 (単一言語学習を優先)
---
## Architecture
### Existing Architecture Analysis
現在の nanochat アーキテクチャ:
```
[データ取得] → [トークナイザ学習] → [事前学習] → [中間学習] → [SFT] → [評価] → [推論/Web UI]
```
**既存の制約**:
- `dataset.py`: `BASE_URL` が英語 fineweb-edu に固定
- `tasks/`: 英語ベンチマークのみ (ARC, MMLU, GSM8K)
- トークナイザ: Unicode 対応済み (変更不要)
- Web UI: UTF-8/ストリーミング対応済み (変更不要)
### Architecture Pattern & Boundary Map
```mermaid
graph TB
subgraph DataLayer[Data Layer]
DS_EN[fineweb-edu-100b English]
DS_JA[fineweb-2-edu-japanese]
SFT_EN[SmolTalk English]
SFT_JA[JapaneseInstruct]
end
subgraph CorePipeline[Core Pipeline]
TOK[Tokenizer Training]
BASE[Base Training]
MID[Mid Training]
SFT[SFT Training]
end
subgraph Evaluation[Evaluation]
EVAL_EN[ARC MMLU GSM8K]
EVAL_JA[JCommonsenseQA]
end
subgraph Inference[Inference]
WEB[Web UI]
CLI[CLI]
end
DS_EN --> TOK
DS_JA --> TOK
TOK --> BASE
BASE --> MID
MID --> SFT
SFT_EN --> SFT
SFT_JA --> SFT
SFT --> EVAL_EN
SFT --> EVAL_JA
SFT --> WEB
SFT --> CLI
```
**Architecture Integration**:
- Selected pattern: **Hybrid Extension** - 既存コンポーネント拡張 + 新規タスクファイル
- Domain boundaries: データソース層 (言語別) / パイプライン層 (言語非依存) / 評価層 (言語別)
- Existing patterns preserved: Task クラス継承、HuggingFace datasets 経由のデータ取得
- New components rationale: 日本語固有のデータ形式変換と評価ロジックを分離
- Steering compliance: ミニマル・ハッカブル原則を維持、設定オブジェクトの肥大化回避
### Technology Stack
| Layer | Choice / Version | Role in Feature | Notes |
|-------|------------------|-----------------|-------|
| Data | HuggingFace datasets | 日本語データセット取得 | fineweb-2-edu-japanese, JGLUE, izumi-lab |
| Backend | Python 3.10+ | データ処理・学習スクリプト | 既存と同一 |
| Tokenizer | RustBPE + tiktoken | 日本語 BPE 学習・推論 | Unicode 対応済み |
| Infrastructure | 環境変数 | 言語切り替え | `NANOCHAT_LANG` |
---
## System Flows
### 日本語データセット切り替えフロー
```mermaid
sequenceDiagram
participant User
participant Script as tok_train/base_train
participant Dataset as dataset.py
participant HF as HuggingFace
User->>Script: NANOCHAT_LANG=ja python -m scripts.tok_train
Script->>Dataset: parquets_iter_batched()
Dataset->>Dataset: get_data_config(lang)
alt lang == "ja"
Dataset->>HF: hotchpotch/fineweb-2-edu-japanese
else lang == "en"
Dataset->>HF: karpathy/fineweb-edu-100b-shuffle
end
HF-->>Dataset: parquet files
Dataset-->>Script: text iterator
```
---
## Requirements Traceability
| Requirement | Summary | Components | Interfaces | Flows |
|-------------|---------|------------|------------|-------|
| 1.1, 1.3, 1.4 | 日本語 BPE 学習 | RustBPE, tokenizer.py | (変更不要) | - |
| 1.2 | 日本語圧縮率評価 | tok_eval.py | - | - |
| 2.1, 2.2, 2.3 | 日本語学習データ | dataset.py | DataConfig | データ切り替えフロー |
| 3.1, 3.2, 3.3 | 日本語 SFT | JapaneseInstruct | Task | - |
| 4.1, 4.2, 4.3, 4.4 | 日本語 Web UI | chat_web.py | (変更不要) | - |
| 5.1, 5.2, 5.3 | 日本語評価 | JCommonsenseQA | Task, chat_eval | - |
---
## Components and Interfaces
| Component | Domain/Layer | Intent | Req Coverage | Key Dependencies | Contracts |
|-----------|--------------|--------|--------------|------------------|-----------|
| dataset.py | Data | 言語別データソース切り替え | 2.1, 2.2, 2.3 | HuggingFace (P0) | Config |
| tok_eval.py | Evaluation | 日本語圧縮率評価 | 1.2 | tokenizer (P0) | - |
| JapaneseInstruct | Tasks | 日本語 SFT データ | 3.1, 3.2, 3.3 | datasets (P0) | Task |
| JCommonsenseQA | Tasks | 日本語常識推論評価 | 5.1, 5.2, 5.3 | datasets (P0) | Task |
---
### Data Layer
#### dataset.py (Extension)
| Field | Detail |
|-------|--------|
| Intent | 環境変数/引数で日本語データソースに切り替え可能にする |
| Requirements | 2.1, 2.2, 2.3 |
**Responsibilities & Constraints**
- 言語設定に基づき適切なデータソース URL を返す
- 既存の parquet 形式との互換性維持
- 環境変数 `NANOCHAT_LANG` または関数引数で言語指定
**Dependencies**
- Outbound: HuggingFace datasets — データ取得 (P0)
**Contracts**: Config [ x ]
##### Config Interface
```python
@dataclass
class DataConfig:
base_url: str
max_shard: int
text_column: str # parquet 内のテキストカラム名
def get_data_config(lang: str = "en") -> DataConfig:
"""言語に応じたデータ設定を返す"""
...
```
**Implementation Notes**
- 環境変数 `NANOCHAT_LANG` をデフォルト値として使用
- `text_column` は fineweb 系では `"text"` で統一されているが、将来の拡張に備えて設定化
---
### Tasks Layer
#### JapaneseInstruct
| Field | Detail |
|-------|--------|
| Intent | izumi-lab/llm-japanese-dataset を SmolTalk 形式に変換して提供 |
| Requirements | 3.1, 3.2, 3.3 |
**Responsibilities & Constraints**
- `instruction/input/output` 形式を `messages` 形式に変換
- Task 基底クラスを継承し、既存パイプラインと互換
- start/stop/step によるスライシング対応
**Dependencies**
- External: izumi-lab/llm-japanese-dataset — 9M+ 例 (P0)
- Inbound: tokenizer.render_conversation — トークナイズ (P0)
**Contracts**: Task [ x ]
##### Task Interface
```python
class JapaneseInstruct(Task):
def __init__(self, split: str = "train", **kwargs):
"""
Args:
split: "train" のみ (データセットに val/test なし)
"""
...
def num_examples(self) -> int:
"""データセット内の例数を返す"""
...
def get_example(self, index: int) -> dict:
"""
Returns:
{
"messages": [
{"role": "user", "content": instruction + input},
{"role": "assistant", "content": output}
]
}
"""
...
```
**Implementation Notes**
- `input` が空でない場合は `instruction` と連結 (`\n\n` 区切り)
- ライセンス: CC-BY-SA 4.0 (permissive)
---
#### JCommonsenseQA
| Field | Detail |
|-------|--------|
| Intent | JGLUE JCommonsenseQA を評価タスクとして提供 |
| Requirements | 5.1, 5.2, 5.3 |
**Responsibilities & Constraints**
- 5択問題を既存の multiple choice 形式でレンダリング
- `eval_type = "categorical"` で正解判定
- train/val/test スプリット対応
**Dependencies**
- External: shunk031/JGLUE JCommonsenseQA — train 8,939 / val 1,119 (P0)
- Inbound: render_mc — 多肢選択フォーマット (P1)
**Contracts**: Task [ x ]
##### Task Interface
```python
class JCommonsenseQA(Task):
def __init__(self, split: str = "validation", **kwargs):
"""
Args:
split: "train" | "validation" | "test"
"""
...
@property
def eval_type(self) -> str:
return "categorical"
def num_examples(self) -> int:
...
def get_example(self, index: int) -> dict:
"""
Returns:
{
"messages": [
{"role": "user", "content": render_mc(question, letters, choices)},
{"role": "assistant", "content": correct_letter}
]
}
"""
...
def evaluate(self, problem: dict, completion: str) -> bool:
"""completion が正解レターと一致するか判定"""
...
```
**Implementation Notes**
- `choice0` - `choice4` を A-E にマッピング
- `label` (0-4) から正解レターを決定
- 既存 ARC, MMLU の `render_mc` パターンを流用
---
### Evaluation Layer
#### tok_eval.py (Extension)
| Field | Detail |
|-------|--------|
| Intent | 日本語テキストの圧縮率評価を追加 |
| Requirements | 1.2 |
**Responsibilities & Constraints**
- 日本語サンプルテキスト (`japanese_text`) を追加
- 既存の `all_text` リストに追加
- GPT-2/GPT-4/ours の比較表に日本語行を追加
**Implementation Notes**
- 韓国語 (`korean_text`) と同様のパターンで追加
- 日本語ニュース、Wikipedia、技術文書などからサンプル選定
---
## Data Models
### Domain Model
**Conversation (既存)**
```
Conversation
├── messages: List[Message]
│ ├── role: "user" | "assistant" | "system"
│ └── content: str
```
**JCommonsenseQA Example**
```
JCommonsenseQAExample
├── q_id: str
├── question: str
├── choices: List[str] # 5 choices
├── label: int # 0-4
└── letters: List[str] # A-E
```
### Data Contracts & Integration
**izumi-lab データ形式 (入力)**
```json
{
"instruction": "以下の質問に答えてください。",
"input": "日本の首都はどこですか?",
"output": "日本の首都は東京です。"
}
```
**nanochat Conversation 形式 (出力)**
```json
{
"messages": [
{"role": "user", "content": "以下の質問に答えてください。\n\n日本の首都はどこですか"},
{"role": "assistant", "content": "日本の首都は東京です。"}
]
}
```
---
## Error Handling
### Error Categories and Responses
**データ取得エラー**:
- HuggingFace からのダウンロード失敗 → 既存のリトライ機構を使用
- parquet ファイル破損 → スキップしてログ出力
**トークナイズエラー**:
- 未知 Unicode 文字 → `byte_fallback` で自動処理 (エラーなし)
**評価エラー**:
- JCommonsenseQA ロード失敗 → 評価スキップ、レポートに N/A 記録
---
## Testing Strategy
### Unit Tests
- `JapaneseInstruct.get_example()` の形式変換が正しいか
- `JCommonsenseQA.evaluate()` の正解判定が正しいか
- `get_data_config("ja")` が正しい URL を返すか
### Integration Tests
- 日本語データで `tok_train.py` が正常終了するか
- `tok_eval.py` に日本語テキストが含まれ圧縮率が計算されるか
- `chat_sft.py` で JapaneseInstruct を含む TaskMixture が動作するか
### E2E Tests
- 日本語入力 → Web UI → 日本語出力のストリーミングが正常か
- JCommonsenseQA 評価が report.md に記録されるか
---
## Performance & Scalability
**日本語トークナイザ圧縮率**:
- UTF-8 日本語は 3 バイト/文字、英語は 1 バイト/文字
- 日本語データでトークナイザを学習すれば 2-4 文字/トークンの圧縮率が期待できる
- vocab_size 65536 (デフォルト) で十分な日本語カバレッジ
**データセットサイズ**:
- fineweb-2-edu-japanese: 89.3B トークン (英語 100B と同程度)
- izumi-lab: 9M 例 (SmolTalk 10K よりも大幅に多い、サブサンプリング推奨)
---
## Supporting References
詳細な調査結果は `research.md` を参照:
- 日本語データセット比較
- ライセンス確認
- 設計決定の代替案と根拠

View File

@ -0,0 +1,205 @@
# Gap Analysis: japanese-support
## 1. Current State Investigation
### 1.1 Key Files and Modules
| Module | Location | 役割 |
|--------|----------|------|
| RustBPE | `rustbpe/src/lib.rs` | Rust BPE トークナイザ学習 |
| Tokenizer | `nanochat/tokenizer.py` | Python トークナイザ抽象化 |
| Dataset | `nanochat/dataset.py` | 事前学習データダウンロード・読み込み |
| tok_train | `scripts/tok_train.py` | トークナイザ学習スクリプト |
| tok_eval | `scripts/tok_eval.py` | トークナイザ評価スクリプト |
| chat_sft | `scripts/chat_sft.py` | SFT 学習スクリプト |
| chat_web | `scripts/chat_web.py` | Web UI 推論サーバー |
| Task base | `tasks/common.py` | 評価タスク基底クラス |
| SmolTalk | `tasks/smoltalk.py` | SFT 会話データセット |
### 1.2 既存の日本語対応状況
**トークナイザ (✅ 既に対応済み)**:
- `SPLIT_PATTERN``\p{L}` (Unicode Letter) が使用されており、日本語文字を正しく分割可能
- `byte_fallback=True` が設定されており、未知文字でもエラーにならない
- `tok_eval.py` に既に韓国語テキスト (`korean_text`) の圧縮率評価が含まれている
**データセット (❌ 要対応)**:
- 現在は `fineweb-edu-100b-shuffle` (英語のみ) を使用
- 日本語データソースへの切り替え機構がない
**SFT (❌ 要対応)**:
- `SmolTalk` は英語会話データセット
- 日本語会話データセットの統合が必要
**Web UI (✅ 既に対応済み)**:
- UTF-8 対応済み
- マルチバイト文字境界のストリーミング処理あり (`!current_text.endswith('<27>')` チェック)
**評価タスク (❌ 要対応)**:
- 英語ベンチマークのみ (ARC, GSM8K, MMLU, HumanEval)
- 日本語ベンチマークが存在しない
### 1.3 Conventions and Patterns
- **ファイル命名**: `{domain}_{action}.py` (例: `tok_train.py`, `chat_sft.py`)
- **タスク実装**: `Task` クラスを継承、`num_examples()`, `get_example()` を実装
- **データセット**: HuggingFace `datasets` ライブラリ経由でダウンロード
- **設定**: `nanochat/configurator.py` でコマンドライン引数オーバーライド
---
## 2. Requirements Feasibility Analysis
### 2.1 Requirement-to-Asset Map
| 要件 | 関連アセット | Gap Status |
|------|--------------|------------|
| **Req1: 日本語トークナイザ** | `rustbpe/`, `tokenizer.py`, `tok_train.py` | ✅ Existing (minimal changes) |
| **Req2: 日本語学習データ** | `dataset.py` | ⚠️ Constraint (URL/format hardcoded) |
| **Req3: 日本語 SFT** | `tasks/`, `chat_sft.py` | 🆕 Missing (new task needed) |
| **Req4: 日本語 Web UI** | `chat_web.py` | ✅ Existing (already works) |
| **Req5: 日本語評価** | `tasks/`, `chat_eval.py` | 🆕 Missing (new task needed) |
### 2.2 Gap Details
#### ✅ Existing Capabilities (変更不要または軽微)
1. **トークナイザ Unicode 対応**
- `SPLIT_PATTERN``\p{L}` を使用し日本語文字を正しく分割
- `byte_fallback=True` で未知文字に対応
- **Research Needed**: 日本語に最適化した SPLIT_PATTERN の検討 (オプション)
2. **Web UI ストリーミング**
- マルチバイト文字境界チェック実装済み (`'<27>'` 検出)
- UTF-8 エンコーディング対応済み
#### ⚠️ Constraints (既存コードの制約)
1. **dataset.py のハードコード URL**
- `BASE_URL``fineweb-edu-100b-shuffle` に固定
- 日本語データソース切り替えに抽象化が必要
2. **tok_eval.py の評価テキスト**
- 日本語テキストの追加が必要 (韓国語は既存)
#### 🆕 Missing Capabilities (新規実装必要)
1. **日本語事前学習データセット**
- [hotchpotch/fineweb-2-edu-japanese](https://huggingface.co/datasets/hotchpotch/fineweb-2-edu-japanese) (89.3B tokens) が利用可能
- 既存 parquet 形式と互換性あり
2. **日本語 SFT データセット**
- **Research Needed**: 日本語 SmolTalk 相当のデータセット調査
- 候補: 日本語翻訳版 SmolTalk、独自合成データ
3. **JCommonsenseQA 評価タスク**
- [shunk031/JGLUE](https://huggingface.co/datasets/shunk031/JGLUE) に JCommonsenseQA が含まれる
- `Task` クラスを継承して実装
### 2.3 Complexity Signals
- **Simple**: トークナイザ評価への日本語テキスト追加
- **Moderate**: dataset.py の日本語データソース対応
- **Moderate**: JCommonsenseQA 評価タスク実装
- **Research Required**: 日本語 SFT データセットの選定
---
## 3. Implementation Approach Options
### Option A: Extend Existing Components
**対象**: トークナイザ、tok_eval、chat_sft
- `tok_eval.py`: 日本語評価テキスト追加 (数行)
- `dataset.py`: 環境変数/引数で日本語データソース URL を切り替え
- `chat_sft.py`: TaskMixture に日本語タスクを追加
**Trade-offs**:
- ✅ 既存パターンを踏襲、学習コスト低
- ✅ 変更ファイル数が少ない
- ❌ dataset.py の抽象化が不十分になる可能性
- ❌ 日英混合学習の制御が複雑になる可能性
### Option B: Create New Components
**新規ファイル**:
- `nanochat/dataset_ja.py`: 日本語データセット専用モジュール
- `tasks/jcommonsenseqa.py`: JCommonsenseQA 評価タスク
- `tasks/smoltalk_ja.py`: 日本語 SFT データセット
**Trade-offs**:
- ✅ 日英の分離が明確
- ✅ 日本語固有のロジックを集約
- ❌ 重複コードが発生しやすい
- ❌ 既存スクリプトとの統合に追加作業
### Option C: Hybrid Approach (推奨)
**Phase 1: 最小限の拡張**
- `tok_eval.py` に日本語テキスト追加
- `dataset.py` にデータソース切り替え機能追加 (環境変数)
- `tasks/jcommonsenseqa.py` を新規作成
**Phase 2: SFT 対応**
- 日本語 SFT データセット選定後、`tasks/` に新規タスク追加
- `chat_sft.py` の TaskMixture に統合
**Trade-offs**:
- ✅ 段階的に対応可能
- ✅ 既存コードへの影響を最小化
- ✅ 日本語固有の評価タスクは独立ファイル
- ❌ 二段階の実装が必要
---
## 4. Implementation Complexity & Risk
### Effort Estimate: **M (3-7 days)**
**理由**:
- トークナイザ/Web UI は既存対応済み
- 新規タスク実装 (JCommonsenseQA) は既存パターンに従う
- 日本語 SFT データセット選定に調査が必要
### Risk Assessment: **Medium**
**リスク要因**:
- 日本語 SFT データセットの品質・ライセンス確認が必要
- 日本語トークナイザの圧縮率が英語より劣る可能性 (3バイト/文字)
- マイクロモデルでの日本語性能の限界
**軽減策**:
- fineweb-2-edu-japanese は ODC-By ライセンスで利用可能
- vocab_size を増やす or 日本語データでトークナイザを再学習
- 日本語評価ベンチマークで定量評価
---
## 5. Recommendations for Design Phase
### 5.1 Preferred Approach
**Hybrid Approach (Option C)** を推奨。段階的実装により、各フェーズで動作確認が可能。
### 5.2 Key Design Decisions
1. **データソース切り替え方式**: 環境変数 vs 引数 vs 設定ファイル
2. **日本語 SFT データセット選定**: SmolTalk 翻訳 vs 独自合成 vs 既存公開データ
3. **評価タスク追加方式**: 既存 chat_eval への統合 vs 独立スクリプト
### 5.3 Research Items to Carry Forward
| 項目 | 内容 | 優先度 |
|------|------|--------|
| 日本語 SFT データ | SmolTalk 相当の日本語会話データセット調査 | High |
| SPLIT_PATTERN 最適化 | 日本語向け正規表現パターンの検討 | Low |
| 追加評価タスク | JGLUE の他タスク (JCoLA, JSTS 等) の対応検討 | Low |
---
## 6. External References
- [FineWeb-2 Edu Japanese](https://huggingface.co/datasets/hotchpotch/fineweb-2-edu-japanese) - 日本語事前学習データ
- [JGLUE Dataset](https://huggingface.co/datasets/shunk031/JGLUE) - JCommonsenseQA 等の日本語評価データ
- [Open Japanese LLM Leaderboard](https://huggingface.co/blog/leaderboard-japanese) - 日本語 LLM 評価基準

View File

@ -0,0 +1,51 @@
# Requirements Document
## Project Description (Input)
日本語対応
## Introduction
nanochat に日本語テキストの学習・推論能力を追加する。現在 nanochat は英語の FineWeb-Edu データセットで学習されているが、日本語テキストを効率的にトークナイズし、日本語を含む会話データで学習・推論できるようにする。
## Requirements
### Requirement 1: 日本語トークナイザ学習
**Objective:** As a 開発者, I want 日本語テキストを効率的にトークナイズするトークナイザを学習できる, so that 日本語の圧縮率を改善し学習効率を向上させられる
#### Acceptance Criteria
1. When 日本語を含むテキストデータが指定された場合, the RustBPE Tokenizer shall 日本語文字を正しくバイト列に分解しBPEマージを学習する
2. When トークナイザ学習が完了した場合, the tok_train スクリプト shall 日本語テキストの圧縮率を評価結果に含める
3. The RustBPE Tokenizer shall 既存の SPLIT_PATTERN で日本語文字 (ひらがな、カタカナ、漢字) を正しく分割する
4. If 日本語テキストに未知のUnicode文字が含まれる場合, the Tokenizer shall byte_fallback により処理を継続する
### Requirement 2: 日本語学習データ対応
**Objective:** As a 開発者, I want 日本語のテキストデータを事前学習・中間学習に使用できる, so that 日本語の言語能力を獲得できる
#### Acceptance Criteria
1. When 日本語データソースが設定された場合, the dataset モジュール shall 日本語テキストを含む parquet ファイルをダウンロード・読み込みする
2. The dataloader shall UTF-8 エンコードされた日本語テキストを正しく処理する
3. When 混合データ (英語+日本語) が使用される場合, the 学習パイプライン shall 両言語を含むバッチを正しく処理する
### Requirement 3: 日本語 SFT データ対応
**Objective:** As a 開発者, I want 日本語の会話データで SFT (Supervised Fine-Tuning) を実行できる, so that 日本語での対話能力を獲得できる
#### Acceptance Criteria
1. When 日本語の会話データが提供された場合, the render_conversation メソッド shall 日本語テキストを正しくトークナイズする
2. The chat_sft スクリプト shall 日本語を含む SmolTalk 形式の会話データを処理できる
3. When 日本語と英語が混在する会話データの場合, the SFT パイプライン shall 両言語を正しく学習する
### Requirement 4: 日本語推論・Web UI 対応
**Objective:** As a ユーザー, I want Web UI で日本語の入出力ができる, so that 日本語で nanochat と対話できる
#### Acceptance Criteria
1. When ユーザーが日本語で質問を入力した場合, the chat_web サービス shall 日本語テキストを正しくトークナイズし推論に渡す
2. When モデルが日本語トークンを生成した場合, the chat_web サービス shall 日本語テキストを正しくデコードして表示する
3. The Web UI shall UTF-8 エンコーディングで日本語文字を正しく送受信する
4. While ストリーミング推論中, the chat_web サービス shall 日本語文字が途中で切れないようマルチバイト文字境界を考慮する
### Requirement 5: 日本語評価タスク
**Objective:** As a 開発者, I want 日本語能力を評価するベンチマークを実行できる, so that 日本語対応の効果を定量的に測定できる
#### Acceptance Criteria
1. Where 日本語評価タスクが設定されている場合, the 評価パイプライン shall 日本語ベンチマーク (例: JCommonsenseQA) を実行する
2. When 日本語評価が完了した場合, the report モジュール shall 日本語ベンチマーク結果を report.md に含める
3. The 評価タスク shall 日本語テキストの正規化 (例: 全角半角統一) を考慮する

View File

@ -0,0 +1,126 @@
# Research & Design Decisions: japanese-support
---
**Purpose**: nanochat 日本語対応のための調査結果と設計決定の記録
---
## Summary
- **Feature**: `japanese-support`
- **Discovery Scope**: Extension (既存システムへの拡張)
- **Key Findings**:
- トークナイザと Web UI は既に Unicode/UTF-8 対応済み
- 日本語事前学習データは [hotchpotch/fineweb-2-edu-japanese](https://huggingface.co/datasets/hotchpotch/fineweb-2-edu-japanese) が利用可能
- 日本語 SFT データは [izumi-lab/llm-japanese-dataset](https://huggingface.co/datasets/izumi-lab/llm-japanese-dataset) が 9M+ 例を提供
- 日本語評価は [JGLUE JCommonsenseQA](https://huggingface.co/datasets/shunk031/JGLUE) が標準ベンチマーク
## Research Log
### 日本語事前学習データセット
- **Context**: 英語 fineweb-edu に相当する日本語データソースの調査
- **Sources Consulted**:
- [hotchpotch/fineweb-2-edu-japanese](https://huggingface.co/datasets/hotchpotch/fineweb-2-edu-japanese)
- [HuggingFaceFW/fineweb-2](https://huggingface.co/datasets/HuggingFaceFW/fineweb-2)
- **Findings**:
- fineweb-2-edu-japanese: 120M テキスト、約 89.3B トークン
- 教育的コンテンツにフィルタリング済み (スコア 2.5 以上)
- parquet 形式で既存 dataset.py と互換
- ライセンス: ODC-By v1.0
- **Implications**: dataset.py に環境変数でデータソース URL を切り替える機能を追加
### 日本語 SFT データセット
- **Context**: SmolTalk 相当の日本語会話データセット調査
- **Sources Consulted**:
- [izumi-lab/llm-japanese-dataset](https://huggingface.co/datasets/izumi-lab/llm-japanese-dataset)
- [rinna/japanese-gpt-neox-3.6b-instruction-sft](https://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-sft)
- **Findings**:
- izumi-lab/llm-japanese-dataset: 9,074,340 例
- 形式: `instruction`, `input`, `output` フィールド
- ライセンス: CC-BY-SA 4.0
- SmolTalk の `messages` 形式とは異なるが変換可能
- **Implications**: 新規タスク `JapaneseInstruct` を作成し、izumi-lab 形式を SmolTalk 形式に変換
### 日本語評価ベンチマーク
- **Context**: 日本語 LLM 評価の標準ベンチマーク調査
- **Sources Consulted**:
- [shunk031/JGLUE](https://huggingface.co/datasets/shunk031/JGLUE)
- [Open Japanese LLM Leaderboard](https://huggingface.co/blog/leaderboard-japanese)
- **Findings**:
- JCommonsenseQA: 5択常識推論、train 8,939 / val 1,119 / test 1,118
- フィールド: `q_id`, `question`, `choice0-4`, `label`
- 既存 ARC/MMLU の multiple choice 形式と類似
- **Implications**: 新規タスク `JCommonsenseQA` を既存パターンで実装
### トークナイザ Unicode 対応状況
- **Context**: 既存トークナイザの日本語対応確認
- **Sources Consulted**: `nanochat/tokenizer.py`, `rustbpe/src/lib.rs`
- **Findings**:
- `SPLIT_PATTERN``\p{L}` (Unicode Letter) 使用 → 日本語対応済み
- `byte_fallback=True` → 未知文字でもエラーなし
- `tok_eval.py` に韓国語テキスト評価あり → 日本語追加は容易
- **Implications**: トークナイザ本体の変更不要、評価テキスト追加のみ
---
## Architecture Pattern Evaluation
| Option | Description | Strengths | Risks / Limitations | Notes |
|--------|-------------|-----------|---------------------|-------|
| A: Extend Existing | 既存ファイルに日本語対応を追加 | 最小変更、一貫性 | 条件分岐増加 | dataset.py, tok_eval.py |
| B: New Components | 日本語専用モジュール新設 | 分離が明確 | 重複コード | dataset_ja.py 等 |
| C: Hybrid (採用) | 既存拡張 + 新規タスク | バランス良好 | フェーズ管理必要 | 推奨アプローチ |
---
## Design Decisions
### Decision: データソース切り替え方式
- **Context**: 英語/日本語データセットの切り替え機構が必要
- **Alternatives Considered**:
1. 環境変数 `NANOCHAT_DATASET_LANG=ja` で切り替え
2. コマンドライン引数 `--lang ja` で切り替え
3. 設定ファイル `config.yaml` で指定
- **Selected Approach**: 環境変数 + コマンドライン引数の併用
- **Rationale**: 既存の `NANOCHAT_BASE_DIR` パターンに従い、スクリプト引数でもオーバーライド可能
- **Trade-offs**: 環境変数は暗黙的だがシェルスクリプトとの親和性が高い
- **Follow-up**: speedrun.sh に日本語用設定例をコメント追加
### Decision: 日本語 SFT データ形式変換
- **Context**: izumi-lab データは `instruction/input/output` 形式、nanochat は `messages` 形式
- **Alternatives Considered**:
1. タスク内で動的変換
2. 事前変換スクリプト
3. 両形式をサポートする汎用ローダー
- **Selected Approach**: タスク内で動的変換 (`get_example` メソッド内)
- **Rationale**: 既存 SmolTalk パターンに従い、追加ファイル不要
- **Trade-offs**: 変換ロジックがタスク内に閉じ込められる
- **Follow-up**: 他の日本語データセット追加時に汎用化を検討
### Decision: 評価タスク実装方式
- **Context**: JCommonsenseQA を既存評価パイプラインに統合
- **Alternatives Considered**:
1. `chat_eval.py` に直接追加
2. `tasks/jcommonsenseqa.py` を新規作成
- **Selected Approach**: 新規タスクファイル `tasks/jcommonsenseqa.py`
- **Rationale**: 既存 ARC, MMLU パターンに従う。言語固有タスクは独立ファイルが保守しやすい
- **Trade-offs**: ファイル数増加だが責務が明確
- **Follow-up**: 他の JGLUE タスク (JCoLA, JSTS) 追加時に同パターン適用
---
## Risks & Mitigations
| Risk | Mitigation |
|------|------------|
| 日本語トークナイザ圧縮率が低い (3バイト/文字) | vocab_size 増加 or 日本語データでトークナイザ再学習 |
| マイクロモデルでの日本語性能限界 | JCommonsenseQA で定量評価、期待値を明示 |
| SFT データの品質ばらつき | izumi-lab データは学術論文付き、品質確認済み |
| ライセンス互換性 | fineweb-2-edu-japanese: ODC-By, izumi-lab: CC-BY-SA 4.0 (両方 permissive) |
---
## References
- [hotchpotch/fineweb-2-edu-japanese](https://huggingface.co/datasets/hotchpotch/fineweb-2-edu-japanese) - 日本語事前学習データ (89.3B tokens)
- [izumi-lab/llm-japanese-dataset](https://huggingface.co/datasets/izumi-lab/llm-japanese-dataset) - 日本語 SFT データ (9M+ examples)
- [shunk031/JGLUE](https://huggingface.co/datasets/shunk031/JGLUE) - JCommonsenseQA 評価データ
- [Open Japanese LLM Leaderboard](https://huggingface.co/blog/leaderboard-japanese) - 日本語 LLM 評価基準
- [arXiv:2305.12720](https://arxiv.org/abs/2305.12720) - izumi-lab データセット論文

View File

@ -0,0 +1,22 @@
{
"feature_name": "japanese-support",
"created_at": "2025-12-01T17:00:00+09:00",
"updated_at": "2025-12-01T17:30:00+09:00",
"language": "ja",
"phase": "implementation-complete",
"approvals": {
"requirements": {
"generated": true,
"approved": true
},
"design": {
"generated": true,
"approved": true
},
"tasks": {
"generated": true,
"approved": true
}
},
"ready_for_implementation": true
}

View File

@ -0,0 +1,100 @@
# Implementation Plan: japanese-support
## Tasks
- [x] 1. 日本語データソース切り替え機能
- [x] 1.1 (P) データ設定構造体と言語別設定関数の追加
- 言語に応じたデータソース URL を返す設定機構を実装
- 英語は既存の fineweb-edu、日本語は fineweb-2-edu-japanese を設定
- 環境変数 `NANOCHAT_LANG` からデフォルト言語を取得
- テキストカラム名を設定に含める (将来の拡張に備え)
- _Requirements: 2.1_
- [x] 1.2 parquet イテレータの言語対応
- データ読み込み関数が言語設定を参照するよう修正
- 言語引数を追加し環境変数より優先させる
- 日本語 parquet ファイルの正常読み込みを確認
- _Requirements: 2.1, 2.2, 2.3_
- [x] 2. トークナイザ評価への日本語テキスト追加
- [x] 2.1 (P) 日本語評価サンプルテキストの追加
- 日本語のサンプルテキスト (ニュース、技術文書等) を評価対象に追加
- 既存の韓国語テキストと同様のパターンで実装
- GPT-2/GPT-4/ours の圧縮率比較表に日本語行が出力されることを確認
- _Requirements: 1.2_
- [x] 3. 日本語 SFT タスク実装
- [x] 3.1 (P) JapaneseInstruct タスククラスの作成
- 日本語指示応答データセットを読み込む Task クラスを新規作成
- izumi-lab/llm-japanese-dataset を HuggingFace datasets 経由でロード
- instruction/input/output 形式を messages 形式に変換
- input が空でない場合は instruction と連結
- スライシング (start/stop/step) 対応
- _Requirements: 3.1, 3.2, 3.3_
- [x] 3.2 chat_sft への日本語タスク統合
- SFT 学習スクリプトに日本語タスクを追加
- TaskMixture に適切なサンプル数で組み込む
- 日本語データを含む学習が正常に実行されることを確認
- タスク 3.1 の完了が前提
- _Requirements: 3.2, 3.3_
- [x] 4. 日本語評価タスク実装
- [x] 4.1 (P) JCommonsenseQA タスククラスの作成
- 日本語常識推論ベンチマークを評価する Task クラスを新規作成
- shunk031/JGLUE の JCommonsenseQA を HuggingFace datasets 経由でロード
- 5択問題を多肢選択フォーマットに変換
- choice0-choice4 を A-E にマッピング
- label から正解レターを決定し evaluate メソッドで判定
- _Requirements: 5.1, 5.3_
- [x] 4.2 chat_eval への日本語評価統合
- 評価スクリプトに日本語ベンチマークを追加
- 評価結果が report.md に出力されることを確認
- タスク 4.1 の完了が前提
- _Requirements: 5.1, 5.2_
- [x] 5. 統合テストと動作確認
- [x] 5.1 日本語トークナイザ学習テスト
- 日本語データで小規模トークナイザ学習を実行
- 日本語テキストが正しくトークナイズされることを確認
- 圧縮率が妥当な範囲 (2-4 バイト/トークン) であることを確認
- タスク 1.1, 1.2 の完了が前提
- _Requirements: 1.1, 1.3, 1.4_
- [x] 5.2 日本語 SFT 学習テスト
- 日本語会話データを含む TaskMixture で短時間 SFT を実行
- 日本語会話データが正しくトークナイズ・学習されることを確認
- バリデーションロスが減少することを確認
- タスク 3.1, 3.2 の完了が前提
- _Requirements: 3.1, 3.2, 3.3_
- [x] 5.3 日本語評価テスト
- JCommonsenseQA 評価を実行し精度が計算されることを確認
- 結果が report.md に正しく記録されることを確認
- タスク 4.1, 4.2 の完了が前提
- _Requirements: 5.1, 5.2_
- [x] 5.4 Web UI 日本語動作確認
- 日本語入力 → 推論 → 日本語出力のストリーミングが正常に動作することを確認
- マルチバイト文字が途中で切れないことを確認
- _Requirements: 4.1, 4.2, 4.3, 4.4_
- [x] 6. DGX Spark 日本語学習スクリプト
- [x] 6.1 speedrun_spark.sh の日本語対応
- 既存の speedrun_spark.sh をベースに日本語学習用スクリプトを作成
- NANOCHAT_LANG=ja 環境変数を設定
- 日本語データセットのダウンロード・トークナイザ学習・事前学習・SFT を一貫して実行
- タスク 1-5 の完了が前提
- _Requirements: 1.1, 2.1, 2.2, 2.3, 3.1, 3.2, 3.3_
## Requirements Coverage
| Requirement | Tasks |
|-------------|-------|
| 1.1, 1.3, 1.4 | 5.1, 6.1 |
| 1.2 | 2.1 |
| 2.1, 2.2, 2.3 | 1.1, 1.2, 6.1 |
| 3.1, 3.2, 3.3 | 3.1, 3.2, 5.2, 6.1 |
| 4.1, 4.2, 4.3, 4.4 | 5.4 |
| 5.1, 5.2, 5.3 | 4.1, 4.2, 5.3 |

View File

@ -12,12 +12,48 @@ import argparse
import time
import requests
import pyarrow.parquet as pq
from dataclasses import dataclass
from multiprocessing import Pool
from nanochat.common import get_base_dir
# -----------------------------------------------------------------------------
# The specifics of the current pretraining dataset
# Language-specific data configuration
@dataclass
class DataConfig:
"""Configuration for language-specific data sources."""
base_url: str
max_shard: int
text_column: str # column name in parquet file
# Data configurations for each supported language
DATA_CONFIGS = {
"en": DataConfig(
base_url="https://huggingface.co/datasets/karpathy/fineweb-edu-100b-shuffle/resolve/main",
max_shard=1822,
text_column="text",
),
"ja": DataConfig(
base_url="https://huggingface.co/datasets/hotchpotch/fineweb-2-edu-japanese/resolve/main/data",
max_shard=1238, # 1239 files (train-00000-of-01239 to train-01238-of-01239)
text_column="text",
),
}
def get_data_config(lang: str = None) -> DataConfig:
"""
Get data configuration for the specified language.
Falls back to NANOCHAT_LANG environment variable, then defaults to "en".
"""
if lang is None:
lang = os.environ.get("NANOCHAT_LANG", "en")
if lang not in DATA_CONFIGS:
raise ValueError(f"Unsupported language '{lang}'. Supported: {list(DATA_CONFIGS.keys())}")
return DATA_CONFIGS[lang]
# -----------------------------------------------------------------------------
# The specifics of the current pretraining dataset (legacy compatibility)
# The URL on the internet where the data is hosted and downloaded from on demand
BASE_URL = "https://huggingface.co/datasets/karpathy/fineweb-edu-100b-shuffle/resolve/main"
@ -30,9 +66,24 @@ os.makedirs(DATA_DIR, exist_ok=True)
# -----------------------------------------------------------------------------
# These functions are useful utilities to other modules, can/should be imported
def list_parquet_files(data_dir=None):
""" Looks into a data dir and returns full paths to all parquet files. """
data_dir = DATA_DIR if data_dir is None else data_dir
def get_data_dir(lang: str = None):
"""Get the data directory for the specified language."""
if lang is None:
lang = os.environ.get("NANOCHAT_LANG", "en")
base_dir = get_base_dir()
if lang == "en":
return os.path.join(base_dir, "base_data")
else:
return os.path.join(base_dir, f"base_data_{lang}")
def list_parquet_files(data_dir=None, lang=None):
"""
Looks into a data dir and returns full paths to all parquet files.
If lang is specified, uses the appropriate language-specific data directory.
"""
if data_dir is None:
data_dir = get_data_dir(lang)
os.makedirs(data_dir, exist_ok=True)
parquet_files = sorted([
f for f in os.listdir(data_dir)
if f.endswith('.parquet') and not f.endswith('.tmp')
@ -40,35 +91,60 @@ def list_parquet_files(data_dir=None):
parquet_paths = [os.path.join(data_dir, f) for f in parquet_files]
return parquet_paths
def parquets_iter_batched(split, start=0, step=1):
def parquets_iter_batched(split, start=0, step=1, lang=None):
"""
Iterate through the dataset, in batches of underlying row_groups for efficiency.
- split can be "train" or "val". the last parquet file will be val.
- start/step are useful for skipping rows in DDP. e.g. start=rank, step=world_size
- lang: language code (e.g., "en", "ja"). Defaults to NANOCHAT_LANG env var or "en".
"""
assert split in ["train", "val"], "split must be 'train' or 'val'"
parquet_paths = list_parquet_files()
config = get_data_config(lang)
parquet_paths = list_parquet_files(lang=lang)
parquet_paths = parquet_paths[:-1] if split == "train" else parquet_paths[-1:]
for filepath in parquet_paths:
pf = pq.ParquetFile(filepath)
for rg_idx in range(start, pf.num_row_groups, step):
rg = pf.read_row_group(rg_idx)
texts = rg.column('text').to_pylist()
texts = rg.column(config.text_column).to_pylist()
yield texts
# -----------------------------------------------------------------------------
def download_single_file(index):
# Language-specific filename formats
def get_filename_formatter(lang: str):
"""Get the filename formatter function for the specified language."""
if lang == "ja":
# Japanese dataset uses train-XXXXX-of-YYYYY.parquet format
def formatter(index, total):
return f"train-{index:05d}-of-{total:05d}.parquet"
return formatter
else:
# English dataset uses shard_XXXXX.parquet format
return lambda index, total: f"shard_{index:05d}.parquet"
def download_single_file(index, lang=None, config=None, data_dir=None):
"""Downloads a single file index, with some backoff"""
if config is None:
config = get_data_config(lang)
if data_dir is None:
data_dir = get_data_dir(lang)
os.makedirs(data_dir, exist_ok=True)
# Get the filename formatter for this language
if lang is None:
lang = os.environ.get("NANOCHAT_LANG", "en")
formatter = get_filename_formatter(lang)
total = config.max_shard + 1
filename = formatter(index, total)
# Construct the local filepath for this file and skip if it already exists
filename = index_to_filename(index)
filepath = os.path.join(DATA_DIR, filename)
filepath = os.path.join(data_dir, filename)
if os.path.exists(filepath):
print(f"Skipping {filepath} (already exists)")
return True
# Construct the remote URL for this file
url = f"{BASE_URL}/{filename}"
url = f"{config.base_url}/{filename}"
print(f"Downloading {filename}...")
# Download with retries
@ -108,21 +184,38 @@ def download_single_file(index):
return False
# Legacy wrapper for backward compatibility with multiprocessing Pool
def _download_single_file_en(index):
"""Download a single English file (for multiprocessing compatibility)."""
return download_single_file(index, lang="en")
def _download_single_file_ja(index):
"""Download a single Japanese file (for multiprocessing compatibility)."""
return download_single_file(index, lang="ja")
if __name__ == "__main__":
parser = argparse.ArgumentParser(description="Download FineWeb-Edu 100BT dataset shards")
parser.add_argument("-n", "--num-files", type=int, default=-1, help="Number of shards to download (default: -1), -1 = disable")
parser = argparse.ArgumentParser(description="Download dataset shards")
parser.add_argument("-n", "--num-files", type=int, default=-1, help="Number of shards to download (default: -1 = all)")
parser.add_argument("-w", "--num-workers", type=int, default=4, help="Number of parallel download workers (default: 4)")
parser.add_argument("-l", "--lang", type=str, default=None, help="Language code (en/ja). Defaults to NANOCHAT_LANG or 'en'")
args = parser.parse_args()
num = MAX_SHARD + 1 if args.num_files == -1 else min(args.num_files, MAX_SHARD + 1)
lang = args.lang if args.lang else os.environ.get("NANOCHAT_LANG", "en")
config = get_data_config(lang)
data_dir = get_data_dir(lang)
num = config.max_shard + 1 if args.num_files == -1 else min(args.num_files, config.max_shard + 1)
ids_to_download = list(range(num))
print(f"Language: {lang}")
print(f"Downloading {len(ids_to_download)} shards using {args.num_workers} workers...")
print(f"Target directory: {DATA_DIR}")
print(f"Target directory: {data_dir}")
print()
# Use the appropriate download function based on language
download_fn = _download_single_file_ja if lang == "ja" else _download_single_file_en
with Pool(processes=args.num_workers) as pool:
results = pool.map(download_single_file, ids_to_download)
results = pool.map(download_fn, ids_to_download)
# Report results
successful = sum(1 for success in results if success)
print(f"Done! Downloaded: {successful}/{len(ids_to_download)} shards to {DATA_DIR}")
print(f"Done! Downloaded: {successful}/{len(ids_to_download)} shards to {data_dir}")

View File

@ -24,6 +24,7 @@ from tasks.mmlu import MMLU
from tasks.arc import ARC
from tasks.gsm8k import GSM8K
from tasks.spellingbee import SpellingBee
from tasks.jcommonsenseqa import JCommonsenseQA
# -----------------------------------------------------------------------------
# Generative evaluation loop (we go one problem at a time, sample, evaluate)
@ -167,6 +168,7 @@ def run_chat_eval(task_name, model, tokenizer, engine,
'ARC-Challenge': partial(ARC, subset="ARC-Challenge", split="test"),
'GSM8K': partial(GSM8K, subset="main", split="test"),
'SpellingBee': partial(SpellingBee, size=256, split="test"),
'JCommonsenseQA': partial(JCommonsenseQA, split="validation"),
}[task_name]
task_object = task_module()
# Run the evaluation
@ -206,7 +208,7 @@ if __name__ == "__main__":
engine = Engine(model, tokenizer)
# Get the tasks to evaluate on
all_tasks = ['ARC-Easy', 'ARC-Challenge', 'MMLU', 'GSM8K', 'HumanEval', 'SpellingBee']
all_tasks = ['ARC-Easy', 'ARC-Challenge', 'MMLU', 'GSM8K', 'HumanEval', 'SpellingBee', 'JCommonsenseQA']
baseline_accuracies = {
'ARC-Easy': 0.25, # multiple choice 1 of 4 => 25%
'ARC-Challenge': 0.25, # multiple choice 1 of 4 => 25%
@ -214,6 +216,7 @@ if __name__ == "__main__":
'GSM8K': 0.0, # open-ended => 0%
'HumanEval': 0.0, # open-ended => 0%
'SpellingBee': 0.0, # open-ended => 0%
'JCommonsenseQA': 0.20, # multiple choice 1 of 5 => 20%
}
task_names = all_tasks if args.task_name is None else args.task_name.split('|')

View File

@ -29,6 +29,7 @@ from tasks.gsm8k import GSM8K
from tasks.smoltalk import SmolTalk
from tasks.customjson import CustomJSON
from tasks.spellingbee import SimpleSpelling, SpellingBee
from tasks.japanese_instruct import JapaneseInstruct
# -----------------------------------------------------------------------------
# SFT Hyperparameters

View File

@ -21,12 +21,28 @@ Herald Korea Times
헤럴드코리아타임즈는 정치, 경제, 사회, 문화 한국 사회 전반의 주요 이슈를 심도 있게 다루는 종합 온라인 신문사입니다.
우리는 단순히 뉴스를 전달하는 것이 아니라, 사실(Fact) 기반한 양측의 시각을 균형 있게 조명하며, 독자 여러분이 스스로 판단할 있는 정보의 균형 제공합니다.
우리는 단순히 뉴스를 전달하는 것이 아니라, 사실(Fact) 기반한 양측의 시각을 균형 있게 조명하며, 독자 여러분이 스스로 판단할 있는 '정보의 균형' 제공합니다.
한국 언론의 오랜 문제로 지적되어 정치적 편향, 이념적 왜곡에서 벗어나
오직 정직함과 공정함을 원칙으로 삼는 언론을 지향합니다.
어느 한쪽의 주장만을 확대하거나 감추지 않고,
**모든 쟁점에 대해 무엇이 쟁점인지, 누가 무엇을 주장하는지, 사실은 무엇인지** 명확히 전달하는 집중합니다.
**모든 쟁점에 대해 '무엇이 쟁점인지', '누가 무엇을 주장하는지', '사실은 무엇인지'** 명확히 전달하는 집중합니다.
""".strip()
# Random Japanese text (to test Japanese compression)
japanese_text = r"""
人工知能じんこうちのう: artificial intelligenceAIとは計算という概念とコンピュータという道具を用いて知能を研究する計算機科学の一分野を指す語
大規模言語モデルLLM自然言語処理において革新的な進歩をもたらした技術であるTransformerアーキテクチャに基づき膨大なテキストデータから言語パターンを学習するGPTBERTLLaMAなどの代表的なモデルは文章生成翻訳要約質問応答など幅広いタスクに対応できる
機械学習の基本的な流れは以下の通りである
1. データの収集と前処理
2. モデルの選択とアーキテクチャ設計
3. 学習訓練フェーズ
4. 評価と検証
5. 推論と実運用
日本語処理においては形態素解析やサブワードトークナイゼーションが重要な役割を果たす特にByte Pair EncodingBPE未知語への対応力と語彙サイズのバランスに優れている
""".strip()
# Random piece of code
@ -152,6 +168,7 @@ val_text = "\n".join(val_docs)
all_text = [
("news", news_text),
("korean", korean_text),
("japanese", japanese_text),
("code", code_text),
("math", math_text),
("science", science_text),

66
speedrun_spark_ja.sh Executable file
View File

@ -0,0 +1,66 @@
#!/usr/bin/env bash
# speedrun_spark_ja.sh — 日本語学習用スクリプト (DGX Spark 単GPU版)
# 日本語データセット (fineweb-2-edu-japanese) で学習を実行
set -euo pipefail
# ===== ユーザー設定 =====
DEPTH=20
DEVICE_BATCH_SIZE=16
DATA_SHARDS=30
NUM_ITERATIONS=1000
CACHE_DIR="$HOME/.cache/nanochat"
# ========================
# --- 日本語言語設定 ---
export NANOCHAT_LANG=ja
# --- 実行環境・OOM対策 ---
export PYTORCH_ALLOC_CONF="expandable_segments:True,max_split_size_mb:256"
export TORCHDYNAMO_DISABLE=1
export TORCHINDUCTOR_DISABLE=1
# ---- 計測開始 ----
T0=$(date +%s)
echo "=== nanochat 日本語学習 speedrun (single GPU on DGX Spark) ==="
echo "DEPTH=${DEPTH}, DEVICE_BATCH_SIZE=${DEVICE_BATCH_SIZE}, LANG=${NANOCHAT_LANG}"
python - <<'PY'
import torch
print("torch", torch.__version__, "cuda", torch.version.cuda)
print("gpu", torch.cuda.get_device_name(0), "cc", torch.cuda.get_device_capability(0))
PY
echo "== 1) 日本語データ準備 =="
python -m nanochat.dataset -n "${DATA_SHARDS}" --lang ja
echo "== 2) 日本語トークナイザ学習 =="
python -m scripts.tok_train --max_chars=2000000000
python -m scripts.tok_eval || true
ls -l "${CACHE_DIR}/tokenizer" || true
echo "== 3) BASE (pretrain) =="
python -m scripts.base_train \
--depth="${DEPTH}" \
--device_batch_size="${DEVICE_BATCH_SIZE}" \
--num_iterations="${NUM_ITERATIONS}"
echo "== 4) MID =="
python -m scripts.mid_train \
--device_batch_size="${DEVICE_BATCH_SIZE}" \
--num_iterations="${NUM_ITERATIONS}"
echo "== 5) SFT =="
python -m scripts.chat_sft \
--device_batch_size="${DEVICE_BATCH_SIZE}" \
--num_iterations="${NUM_ITERATIONS}"
# echo "== 6) 日本語評価 =="
# python -m scripts.chat_eval -i sft
# ---- 計測終了&表示 ----
T1=$(date +%s)
ELAPSED=$((T1 - T0))
printf "\n== SUMMARY ==\nTotal elapsed: %d s (%02d:%02d:%02d)\n" \
"$ELAPSED" "$((ELAPSED/3600))" "$(((ELAPSED%3600)/60))" "$((ELAPSED%60))"
echo "✅ 日本語学習完了Web UI → python -m scripts.chat_web"

View File

@ -0,0 +1,50 @@
"""
Japanese instruction-following dataset from izumi-lab.
https://huggingface.co/datasets/izumi-lab/llm-japanese-dataset
This dataset contains 9M+ Japanese instruction-output pairs,
converted to the conversation format used by nanochat for SFT.
"""
from datasets import load_dataset
from tasks.common import Task
class JapaneseInstruct(Task):
"""
Japanese instruction-following dataset.
Converts instruction/input/output format to messages format.
"""
def __init__(self, split="train", **kwargs):
super().__init__(**kwargs)
# The dataset only has a "train" split
assert split == "train", "JapaneseInstruct only has 'train' split"
self.ds = load_dataset("izumi-lab/llm-japanese-dataset", split=split).shuffle(seed=42)
self.length = len(self.ds)
def num_examples(self):
return self.length
def get_example(self, index):
row = self.ds[index]
instruction = row.get("instruction", "") or ""
input_text = row.get("input", "") or ""
output = row.get("output", "") or ""
# Combine instruction and input
if input_text.strip():
user_content = f"{instruction}\n\n{input_text}"
else:
user_content = instruction
# Build conversation in messages format
messages = [
{"role": "user", "content": user_content},
{"role": "assistant", "content": output}
]
conversation = {
"messages": messages,
}
return conversation

58
tasks/jcommonsenseqa.py Normal file
View File

@ -0,0 +1,58 @@
"""
JCommonsenseQA from JGLUE benchmark.
https://huggingface.co/datasets/sbintuitions/JCommonsenseQA
A Japanese commonsense question answering dataset with 5 choices.
Used for evaluating Japanese language understanding.
"""
from datasets import load_dataset
from tasks.common import Task, render_mc
class JCommonsenseQA(Task):
"""
JCommonsenseQA: Japanese Commonsense Question Answering.
A 5-choice multiple choice task from JGLUE benchmark.
"""
def __init__(self, split="validation", **kwargs):
super().__init__(**kwargs)
assert split in ["train", "validation"], "JCommonsenseQA split must be train|validation"
self.ds = load_dataset("sbintuitions/JCommonsenseQA", split=split).shuffle(seed=42)
self.letters = ["A", "B", "C", "D", "E"]
@property
def eval_type(self):
return 'categorical'
def num_examples(self):
return len(self.ds)
def get_example(self, index):
row = self.ds[index]
question = row["question"]
# Collect choices from choice0 to choice4
choices = [row[f"choice{i}"] for i in range(5)]
label = row["label"] # 0-4
answer_letter = self.letters[label]
# Create the user message with multiple choice format
user_message = render_mc(question, self.letters, choices)
messages = [
{"role": "user", "content": user_message},
{"role": "assistant", "content": answer_letter}
]
conversation = {
"messages": messages,
"letters": self.letters, # useful during evaluation
}
return conversation
def evaluate(self, conversation, assistant_response):
# Check if the assistant's response matches the expected answer
assert assistant_response in conversation['letters'], \
f"JCommonsenseQA answer {assistant_response} must be one of {conversation['letters']}"
expected_answer = conversation['messages'][-1]['content'] # e.g., "A"
return assistant_response == expected_answer

View File

@ -0,0 +1,427 @@
"""
Japanese language support integration tests.
Tests:
1. Japanese data configuration and loading
2. Japanese tokenizer training and compression
3. JapaneseInstruct task functionality
4. JCommonsenseQA task functionality
Run with:
python -m pytest tests/test_japanese_support.py -v -s
"""
import pytest
import os
class TestDataConfig:
"""Test language-specific data configuration."""
def test_get_data_config_default(self):
"""Default language should be English."""
from nanochat.dataset import get_data_config
# Clear any existing env var
orig = os.environ.pop("NANOCHAT_LANG", None)
try:
config = get_data_config()
assert config.base_url.endswith("fineweb-edu-100b-shuffle/resolve/main")
assert config.text_column == "text"
finally:
if orig is not None:
os.environ["NANOCHAT_LANG"] = orig
def test_get_data_config_english(self):
"""English config should use fineweb-edu."""
from nanochat.dataset import get_data_config
config = get_data_config("en")
assert "fineweb-edu-100b-shuffle" in config.base_url
assert config.max_shard == 1822
assert config.text_column == "text"
def test_get_data_config_japanese(self):
"""Japanese config should use fineweb-2-edu-japanese."""
from nanochat.dataset import get_data_config
config = get_data_config("ja")
assert "fineweb-2-edu-japanese" in config.base_url
assert config.max_shard == 892
assert config.text_column == "text"
def test_get_data_config_from_env(self):
"""Should read language from NANOCHAT_LANG env var."""
from nanochat.dataset import get_data_config
orig = os.environ.get("NANOCHAT_LANG")
try:
os.environ["NANOCHAT_LANG"] = "ja"
config = get_data_config()
assert "fineweb-2-edu-japanese" in config.base_url
finally:
if orig is not None:
os.environ["NANOCHAT_LANG"] = orig
else:
os.environ.pop("NANOCHAT_LANG", None)
def test_get_data_config_unsupported_lang(self):
"""Should raise error for unsupported language."""
from nanochat.dataset import get_data_config
with pytest.raises(ValueError, match="Unsupported language"):
get_data_config("zh")
def test_get_data_dir_english(self):
"""English data dir should be base_data."""
from nanochat.dataset import get_data_dir
from nanochat.common import get_base_dir
data_dir = get_data_dir("en")
assert data_dir == os.path.join(get_base_dir(), "base_data")
def test_get_data_dir_japanese(self):
"""Japanese data dir should be base_data_ja."""
from nanochat.dataset import get_data_dir
from nanochat.common import get_base_dir
data_dir = get_data_dir("ja")
assert data_dir == os.path.join(get_base_dir(), "base_data_ja")
class TestJapaneseTokenizer:
"""Test Japanese text tokenization."""
def test_encode_decode_japanese(self):
"""Test encoding and decoding Japanese text."""
from nanochat.tokenizer import RustBPETokenizer
# Train a small tokenizer with Japanese text
japanese_texts = [
"これはテストです。日本語のテキストをトークナイズします。",
"人工知能は機械学習の一分野です。",
"東京は日本の首都です。大阪は西日本の中心都市です。",
"ひらがなとカタカナと漢字を含むテキスト。",
]
tok = RustBPETokenizer.train_from_iterator(japanese_texts, vocab_size=300)
# Test encode/decode roundtrip
test_text = "日本語のテスト文です。"
ids = tok.encode(test_text)
decoded = tok.decode(ids)
assert decoded == test_text, f"Roundtrip failed: {decoded} != {test_text}"
def test_japanese_compression_ratio(self):
"""Test that Japanese text achieves reasonable compression."""
from nanochat.tokenizer import RustBPETokenizer
# Use more Japanese text for training
japanese_texts = [
"人工知能(じんこうちのう、英: artificial intelligence、AIとは、" * 10,
"大規模言語モデルLLMは、自然言語処理において革新的な進歩をもたらした。" * 10,
"機械学習の基本的な流れは、データの収集と前処理から始まる。" * 10,
]
tok = RustBPETokenizer.train_from_iterator(japanese_texts, vocab_size=512)
test_text = "日本語処理においては、形態素解析やサブワードトークナイゼーションが重要な役割を果たす。"
ids = tok.encode(test_text)
text_bytes = len(test_text.encode('utf-8'))
num_tokens = len(ids)
ratio = text_bytes / num_tokens
# Japanese UTF-8 is typically 3 bytes per character
# A reasonable BPE should compress to at least 2 bytes/token
assert ratio >= 1.5, f"Compression ratio too low: {ratio:.2f} bytes/token"
print(f"Japanese compression ratio: {ratio:.2f} bytes/token")
class TestJapaneseInstruct:
"""Test JapaneseInstruct task."""
def test_task_loads(self):
"""Test that JapaneseInstruct task loads successfully."""
from tasks.japanese_instruct import JapaneseInstruct
task = JapaneseInstruct(split="train", start=0, stop=10)
# num_examples() returns total dataset size, __len__ returns sliced size
assert len(task) == 10
def test_task_example_format(self):
"""Test that examples have correct format."""
from tasks.japanese_instruct import JapaneseInstruct
task = JapaneseInstruct(split="train", start=0, stop=5)
example = task.get_example(0)
assert "messages" in example
messages = example["messages"]
assert len(messages) == 2
assert messages[0]["role"] == "user"
assert messages[1]["role"] == "assistant"
assert len(messages[0]["content"]) > 0
assert len(messages[1]["content"]) > 0
def test_task_contains_japanese(self):
"""Test that examples contain Japanese text."""
from tasks.japanese_instruct import JapaneseInstruct
import re
task = JapaneseInstruct(split="train", start=0, stop=20)
# Check multiple examples for Japanese characters
japanese_pattern = re.compile(r'[\u3040-\u309F\u30A0-\u30FF\u4E00-\u9FFF]')
found_japanese = False
for i in range(min(20, task.num_examples())):
example = task.get_example(i)
content = example["messages"][0]["content"] + example["messages"][1]["content"]
if japanese_pattern.search(content):
found_japanese = True
break
assert found_japanese, "No Japanese text found in examples"
class TestJCommonsenseQA:
"""Test JCommonsenseQA task."""
def test_task_loads(self):
"""Test that JCommonsenseQA task loads successfully."""
from tasks.jcommonsenseqa import JCommonsenseQA
task = JCommonsenseQA(split="validation", start=0, stop=10)
# num_examples() returns total dataset size, __len__ returns sliced size
assert len(task) == 10
def test_task_example_format(self):
"""Test that examples have correct format."""
from tasks.jcommonsenseqa import JCommonsenseQA
task = JCommonsenseQA(split="validation", start=0, stop=5)
example = task.get_example(0)
assert "messages" in example
assert "letters" in example
messages = example["messages"]
assert len(messages) == 2
assert messages[0]["role"] == "user"
assert messages[1]["role"] == "assistant"
# Answer should be a single letter A-E
assert messages[1]["content"] in ["A", "B", "C", "D", "E"]
def test_eval_type(self):
"""Test that eval_type is categorical."""
from tasks.jcommonsenseqa import JCommonsenseQA
task = JCommonsenseQA(split="validation")
assert task.eval_type == "categorical"
def test_evaluate_correct(self):
"""Test evaluate method with correct answer."""
from tasks.jcommonsenseqa import JCommonsenseQA
task = JCommonsenseQA(split="validation", start=0, stop=5)
example = task.get_example(0)
correct_answer = example["messages"][1]["content"]
result = task.evaluate(example, correct_answer)
assert result is True
def test_evaluate_incorrect(self):
"""Test evaluate method with incorrect answer."""
from tasks.jcommonsenseqa import JCommonsenseQA
task = JCommonsenseQA(split="validation", start=0, stop=5)
example = task.get_example(0)
correct_answer = example["messages"][1]["content"]
# Pick a wrong answer
wrong_answers = [l for l in ["A", "B", "C", "D", "E"] if l != correct_answer]
wrong_answer = wrong_answers[0]
result = task.evaluate(example, wrong_answer)
assert result is False
def test_contains_japanese(self):
"""Test that questions contain Japanese text."""
from tasks.jcommonsenseqa import JCommonsenseQA
import re
task = JCommonsenseQA(split="validation", start=0, stop=10)
japanese_pattern = re.compile(r'[\u3040-\u309F\u30A0-\u30FF\u4E00-\u9FFF]')
for i in range(min(10, task.num_examples())):
example = task.get_example(i)
content = example["messages"][0]["content"]
assert japanese_pattern.search(content), f"Example {i} has no Japanese: {content[:100]}"
class TestTokEvalJapanese:
"""Test that tok_eval includes Japanese text."""
def test_japanese_text_in_tok_eval(self):
"""Verify japanese_text variable exists in tok_eval."""
# Import the module to check the variable exists
import scripts.tok_eval as tok_eval
# Check that japanese_text is defined
assert hasattr(tok_eval, 'japanese_text'), "japanese_text not found in tok_eval"
japanese_text = tok_eval.japanese_text
# Check that it contains Japanese characters
import re
japanese_pattern = re.compile(r'[\u3040-\u309F\u30A0-\u30FF\u4E00-\u9FFF]')
assert japanese_pattern.search(japanese_text), "japanese_text does not contain Japanese characters"
# Check that japanese is in all_text
all_text_names = [name for name, _ in tok_eval.all_text]
assert "japanese" in all_text_names, "japanese not in all_text list"
class TestSFTIntegration:
"""Test SFT integration with Japanese data."""
def test_japanese_instruct_in_task_mixture(self):
"""Test that JapaneseInstruct works in TaskMixture."""
from tasks.common import TaskMixture
from tasks.japanese_instruct import JapaneseInstruct
task = JapaneseInstruct(split="train", start=0, stop=50)
mixture = TaskMixture([task])
assert len(mixture) == 50
example = mixture[0]
assert "messages" in example
def test_tokenizer_renders_japanese_conversation(self):
"""Test that tokenizer correctly renders Japanese conversations."""
from nanochat.tokenizer import get_tokenizer
from tasks.japanese_instruct import JapaneseInstruct
import re
tok = get_tokenizer()
task = JapaneseInstruct(split="train", start=0, stop=10)
# Test render_conversation
example = task[0]
ids, mask = tok.render_conversation(example)
assert len(ids) > 0
assert len(mask) == len(ids)
# Verify roundtrip preserves Japanese
decoded = tok.decode(ids)
japanese_pattern = re.compile(r'[\u3040-\u309F\u30A0-\u30FF\u4E00-\u9FFF]')
# Note: some examples may be English translations, so check if original had Japanese
original_text = example["messages"][0]["content"] + example["messages"][1]["content"]
if japanese_pattern.search(original_text):
assert japanese_pattern.search(decoded), "Japanese characters not preserved"
def test_chat_sft_imports(self):
"""Test that chat_sft can import JapaneseInstruct."""
# This verifies the import in chat_sft.py works
from tasks.japanese_instruct import JapaneseInstruct
task = JapaneseInstruct(split="train", start=0, stop=5)
assert len(task) == 5
class TestEvalIntegration:
"""Test evaluation integration with Japanese tasks."""
def test_jcommonsenseqa_in_chat_eval(self):
"""Test that JCommonsenseQA is available in chat_eval task module."""
from functools import partial
from tasks.jcommonsenseqa import JCommonsenseQA
# Simulate the task_module dict from chat_eval
task_module = partial(JCommonsenseQA, split="validation")
task_object = task_module()
assert task_object.eval_type == "categorical"
assert len(task_object) > 0
def test_jcommonsenseqa_baseline_accuracy(self):
"""Test that baseline accuracy for 5-choice MC is 20%."""
# This is the random baseline for 5-choice questions
baseline = 0.20
assert baseline == 1.0 / 5.0
class TestWebUIJapanese:
"""Test Web UI Japanese support (code-level verification)."""
def test_tokenizer_encodes_japanese_message(self):
"""Test that tokenizer correctly encodes Japanese message content."""
from nanochat.tokenizer import get_tokenizer
tok = get_tokenizer()
japanese_message = "こんにちは、日本語でお話しましょう。"
# Encode and decode roundtrip
ids = tok.encode(japanese_message)
decoded = tok.decode(ids)
assert decoded == japanese_message
def test_json_dumps_japanese_with_ensure_ascii_false(self):
"""Test that JSON dumps preserves Japanese characters with ensure_ascii=False."""
import json
token_data = {"token": "日本語のテスト", "gpu": 0}
json_str = json.dumps(token_data, ensure_ascii=False)
# Japanese characters should be preserved, not escaped
assert "日本語のテスト" in json_str
assert "\\u" not in json_str # No unicode escapes
def test_utf8_boundary_detection(self):
"""Test detection of incomplete UTF-8 sequences (replacement character)."""
# Simulate the web server's UTF-8 boundary detection
complete_text = "日本語"
assert not complete_text.endswith('<EFBFBD>')
# Verify that incomplete UTF-8 would be detected
# (In practice, tokenizer.decode handles this internally)
def test_special_tokens_for_conversation(self):
"""Test that special tokens for conversation are available."""
from nanochat.tokenizer import get_tokenizer
tok = get_tokenizer()
# These tokens are used in chat_web.py
bos = tok.get_bos_token_id()
user_start = tok.encode_special("<|user_start|>")
user_end = tok.encode_special("<|user_end|>")
assistant_start = tok.encode_special("<|assistant_start|>")
assistant_end = tok.encode_special("<|assistant_end|>")
assert isinstance(bos, int)
assert isinstance(user_start, int)
assert isinstance(user_end, int)
assert isinstance(assistant_start, int)
assert isinstance(assistant_end, int)
def test_conversation_encoding_with_japanese(self):
"""Test encoding a full conversation with Japanese content."""
from nanochat.tokenizer import get_tokenizer
tok = get_tokenizer()
# Build conversation like chat_web.py does
bos = tok.get_bos_token_id()
user_start = tok.encode_special("<|user_start|>")
user_end = tok.encode_special("<|user_end|>")
assistant_start = tok.encode_special("<|assistant_start|>")
conversation_tokens = [bos]
conversation_tokens.append(user_start)
conversation_tokens.extend(tok.encode("日本語で挨拶してください。"))
conversation_tokens.append(user_end)
conversation_tokens.append(assistant_start)
# Verify we can decode the conversation
decoded = tok.decode(conversation_tokens)
assert "日本語で挨拶してください" in decoded