p1atdev commited on
Commit
5f8627a
·
verified ·
1 Parent(s): 5d445a7

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +66 -1
README.md CHANGED
@@ -4,6 +4,8 @@ base_model:
4
  license: apache-2.0
5
  datasets:
6
  - p1atdev/gsm8k-ja-slim
 
 
7
  language:
8
  - ja
9
  library_name: transformers
@@ -16,4 +18,67 @@ additional instruction:
16
 
17
  ```
18
  回答する際は、思考過程を<think></think>ブロック内に記述し、最終的な答えを数値のみで<answer></answer>ブロック内に記述してください。
19
- ```
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
4
  license: apache-2.0
5
  datasets:
6
  - p1atdev/gsm8k-ja-slim
7
+ - SyntheticVeryEasyMath5k
8
+ - SyntheticWichIsGreater5k
9
  language:
10
  - ja
11
  library_name: transformers
 
18
 
19
  ```
20
  回答する際は、思考過程を<think></think>ブロック内に記述し、最終的な答えを数値のみで<answer></answer>ブロック内に記述してください。
21
+ ```
22
+
23
+ ## Example
24
+
25
+ ```py
26
+ import torch
27
+ from transformers import AutoTokenizer, AutoModelForCausalLM
28
+
29
+ tokenizer = AutoTokenizer.from_pretrained("p1atdev/llm-jp-3-3.7b-instruct2-R27")
30
+ model = AutoModelForCausalLM.from_pretrained("p1atdev/llm-jp-3-3.7b-instruct2-R27", torch_dtype=torch.float16)
31
+ model = model.eval().to("cuda")
32
+
33
+
34
+ additional_instruction = "回答する際は、思考過程を<think></think>ブロック内に記述し、最終的な答えを数値のみで<answer></answer>ブロック内に記述してください。"
35
+ question = "ナタリアは4月に48人の友人にクリップを販売し、その後5月にはその半分の数のクリップを販売しました。ナタリアは4月と5月の合計でいくつのクリップを販売しましたか?"
36
+
37
+ inputs = tokenizer.apply_chat_template(
38
+ [
39
+ {
40
+ "role": "user",
41
+ "content": question
42
+ },
43
+ ],
44
+ additional_instruction=additional_instruction, # pass the additional instruction
45
+ tokenize=False,
46
+ add_generation_prompt=True, # append "### 応答:"
47
+ return_tensors="pt",
48
+ )
49
+ inputs = tokenizer(inputs, return_tensors="pt").to(model.device)
50
+
51
+ with torch.inference_mode():
52
+ outputs = model.generate(
53
+ **inputs,
54
+ do_sample=True,
55
+ temperature=0.9,
56
+ top_p=0.6,
57
+ top_k=20,
58
+ max_new_tokens=256,
59
+ repetition_penalty=1.0,
60
+ eos_token_id=tokenizer.eos_token_id,
61
+ pad_token_id=tokenizer.pad_token_id,
62
+ )
63
+ print(tokenizer.decode(outputs[0][len(inputs.input_ids[0]):]))
64
+ ```
65
+
66
+ the output:
67
+
68
+ ```
69
+ <think>
70
+ 4月にナタリアは48人の友人にクリップを販売しました。
71
+ 5月にはその半分の数のクリップを販売したので、48 ÷ 2 = 24人の友人にクリップを販売したことになります。
72
+ したがって、4月と5月の合計でナタリアは48 + 24 = 72人の友人にクリップを販売したことになります。</think>
73
+ <answer>72</answer></s>
74
+ ```
75
+
76
+
77
+ ## Dataset
78
+
79
+ - 日本語訳した GSM8K ([p1atdev/gsm8k-ja-slim](https://huggingface.co/datasets/p1atdev/gsm8k-ja-slim))
80
+ - うち、苗字や人名に関する問題を除外
81
+ - SyntheticVeryEasyMath5k
82
+ - 機械的に合成した、整数の四則演算問題 5,000問
83
+ - SyntheticWichIsGreater5k
84
+ - 機械的に合成した、二つの小数のどちらが大きいかを回答する問題 5,000問