File size: 1,638 Bytes
467fc4d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
---
language:

ko
license: mit
task_categories:
text-generation
size_categories:
1K<n<10K


korean-pretraining-corpus
한국어 사전학습 코퍼스
Dataset Description
이 데이터셋은 한국어 Foundation Model 학습에 사용된 전처리된 코퍼스입니다.
Dataset Summary

Language: Korean (한국어)
License: MIT
Source: Korean Wikipedia and public Korean text
Preprocessing: Tokenized and chunked into sequences

Data Fields

input_ids: 토큰화된 정수 시퀀스 (List[int])

Data Splits

Train: ~95%
Validation: ~5%

Dataset Creation
Source Data
한국어 위키피디아 및 공개 한국어 텍스트
Preprocessing

텍스트 정제 (최소 길이 필터링)
BPE 토큰화
고정 길이 시퀀스로 분할 (512 tokens)
패딩 적용

Tokenization

Tokenizer: BPE (Byte-Pair Encoding)
Vocabulary Size: 32,000
Special Tokens: <pad>, <s>, </s>, <unk>, <mask>

Usage
Loading the Dataset
pythonfrom datasets import load_dataset
import pickle

# HuggingFace에서 다운로드
dataset = load_dataset("oz1115/korean-pretraining-corpus")

# 또는 로컬 pickle 파일 사용
with open("train.pkl", "rb") as f:
    train_data = pickle.load(f)
Example
python# 첫 번째 샘플
sample = dataset['train'][0]
print(sample['input_ids'][:10])  # 첫 10개 토큰
Related Models
이 데이터셋으로 학습된 모델:

korean-gpt-150m

Citation
bibtex@misc{korean-pretraining-corpus,
  author = {oz1115},
  title = {korean-pretraining-corpus: Korean Pretraining Corpus},
  year = {2025},
  publisher = {HuggingFace},
  url = {https://huggingface.co/datasets/oz1115/korean-pretraining-corpus}
}
Contact

HuggingFace: @oz1115