Spaces:
Runtime error
Runtime error
| import gradio as gr | |
| from transformers import AutoModelForCausalLM, AutoTokenizer, Trainer, TrainingArguments | |
| from datasets import load_dataset, Dataset, DatasetDict | |
| import os | |
| def train_and_deploy(write_token, repo_name, license_text): | |
| # トークンを環境変数に設定 | |
| os.environ['HF_WRITE_TOKEN'] = write_token | |
| # ライセンスファイルを作成 | |
| with open("LICENSE", "w") as f: | |
| f.write(license_text) | |
| # モデルとトークナイザーの読み込み | |
| model_name = "EleutherAI/pythia-14m" # トレーニング対象のモデル | |
| model = AutoModelForCausalLM.from_pretrained(model_name) | |
| tokenizer = AutoTokenizer.from_pretrained(model_name) | |
| # FBK-MT/mosel データセットの読み込み | |
| dataset = load_dataset("FBK-MT/mosel") | |
| # データセットのキーを確認 | |
| print(f"Dataset keys: {dataset.keys()}") | |
| if "train" not in dataset: | |
| raise KeyError("The dataset does not contain a 'train' split.") | |
| if "test" not in dataset: | |
| raise KeyError("The dataset does not contain a 'test' split.") | |
| # データセットの最初のエントリのキーを確認 | |
| print(f"Sample keys in 'train' split: {dataset['train'][0].keys()}") | |
| # データセットのトークン化 | |
| def tokenize_function(examples): | |
| try: | |
| texts = examples['text'] | |
| return tokenizer(texts, padding="max_length", truncation=True, max_length=128) | |
| except KeyError as e: | |
| print(f"KeyError: {e}") | |
| print(f"Available keys: {examples.keys()}") | |
| raise | |
| tokenized_datasets = dataset.map(tokenize_function, batched=True) | |
| # トレーニング設定 | |
| training_args = TrainingArguments( | |
| output_dir="./results", | |
| per_device_train_batch_size=8, | |
| per_device_eval_batch_size=8, | |
| evaluation_strategy="epoch", | |
| save_strategy="epoch", | |
| logging_dir="./logs", | |
| logging_steps=10, | |
| num_train_epochs=3, # トレーニングエポック数 | |
| push_to_hub=True, # Hugging Face Hubにプッシュ | |
| hub_token=write_token, | |
| hub_model_id=repo_name # ユーザーが入力したリポジトリ名 | |
| ) | |
| # Trainerの設定 | |
| trainer = Trainer( | |
| model=model, | |
| args=training_args, | |
| train_dataset=tokenized_datasets["train"], | |
| eval_dataset=tokenized_datasets["test"], | |
| ) | |
| # トレーニング実行 | |
| trainer.train() | |
| # モデルをHugging Face Hubにプッシュ | |
| trainer.push_to_hub() | |
| return f"モデルが'{repo_name}'リポジトリにデプロイされました!" | |
| # Gradio UI | |
| with gr.Blocks() as demo: | |
| gr.Markdown("### pythia トレーニングとデプロイ") | |
| token_input = gr.Textbox(label="Hugging Face Write Token", placeholder="トークンを入力してください...") | |
| repo_input = gr.Textbox(label="リポジトリ名", placeholder="デプロイするリポジトリ名を入力してください...") | |
| license_input = gr.Textbox(label="ライセンス", placeholder="ライセンス情報を入力してください...") | |
| output = gr.Textbox(label="出力") | |
| train_button = gr.Button("デプロイ") | |
| train_button.click(fn=train_and_deploy, inputs=[token_input, repo_input, license_input], outputs=output) | |
| demo.launch() |