Sakalti commited on
Commit
60b457e
·
verified ·
1 Parent(s): 9478b77

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -8
app.py CHANGED
@@ -2,7 +2,9 @@ import gradio as gr
2
  from huggingface_hub import InferenceClient
3
 
4
  # 使用可能なモデルのリスト
5
- models = ["Sakalti/Saba1.5-Pro", "Sakalti/light-3b-beta", "Sakalti/Neptuno-Alpha", "Sakalti/SakaRP-1-1.5B", "Sakalti/Lunar-Bfloat16-4B", "Sakalti/Saka-3.8B", "Sakalti/Lunar-4B", "Qwen/QwQ-32B-Preview", "Sakalti/SJT-2B-V1.1"]
 
 
6
 
7
  # システムメッセージのテンプレート
8
  system_message_templates = {
@@ -10,6 +12,9 @@ system_message_templates = {
10
  "架空のキャラ アオイ": "あなたの名前はアオイ。常識的な考えを持っている。語尾は「だぜ」",
11
  }
12
 
 
 
 
13
  def update_system_message(selected_template):
14
  return system_message_templates.get(selected_template, "あなたはフレンドリーなチャットボットです。")
15
 
@@ -22,22 +27,18 @@ def respond(
22
  top_p,
23
  selected_model
24
  ):
25
- # 型変換: selected_modelを文字列に変換
26
  selected_model = str(selected_model)
27
 
28
- # 選択したモデルに基づいてInferenceClientを初期化
29
- client = InferenceClient(selected_model)
30
 
31
  messages = []
32
 
33
- # SJT-2.5Bの場合は、systemメッセージを最初のユーザーのメッセージに埋め込む
34
  if selected_model == "Sakalti/SJT-2.5B":
35
  if not history:
36
  message = f"{system_message}\n{message}"
37
  else:
38
  messages.append({"role": "user", "content": system_message})
39
-
40
- # 通常のsystemメッセージとして送信
41
  else:
42
  messages.append({"role": "system", "content": system_message})
43
 
@@ -95,7 +96,7 @@ with gr.Blocks(theme='Nymbo/Alyx_theme') as demo:
95
  ),
96
  gr.Dropdown(choices=models, value=models[0], label="モデル"),
97
  ],
98
- concurrency_limit=30 # 例: 同時に30つのリクエストを処理
99
  )
100
 
101
  if __name__ == "__main__":
 
2
  from huggingface_hub import InferenceClient
3
 
4
  # 使用可能なモデルのリスト
5
+ models = ["Sakalti/Saba1.5-Pro", "Sakalti/light-3b-beta", "Sakalti/Neptuno-Alpha",
6
+ "Sakalti/SakaRP-1-1.5B", "Sakalti/Lunar-Bfloat16-4B", "Sakalti/Saka-3.8B",
7
+ "Sakalti/Lunar-4B", "Qwen/QwQ-32B-Preview", "Sakalti/SJT-2B-V1.1"]
8
 
9
  # システムメッセージのテンプレート
10
  system_message_templates = {
 
12
  "架空のキャラ アオイ": "あなたの名前はアオイ。常識的な考えを持っている。語尾は「だぜ」",
13
  }
14
 
15
+ # Hugging Faceのアクセストークン(Hugging Faceの設定から取得してください)
16
+ HF_TOKEN = os.environ("HF_TOKEN")
17
+
18
  def update_system_message(selected_template):
19
  return system_message_templates.get(selected_template, "あなたはフレンドリーなチャットボットです。")
20
 
 
27
  top_p,
28
  selected_model
29
  ):
 
30
  selected_model = str(selected_model)
31
 
32
+ # トークンを設定してInferenceClientを初期化
33
+ client = InferenceClient(selected_model, token=HF_TOKEN)
34
 
35
  messages = []
36
 
 
37
  if selected_model == "Sakalti/SJT-2.5B":
38
  if not history:
39
  message = f"{system_message}\n{message}"
40
  else:
41
  messages.append({"role": "user", "content": system_message})
 
 
42
  else:
43
  messages.append({"role": "system", "content": system_message})
44
 
 
96
  ),
97
  gr.Dropdown(choices=models, value=models[0], label="モデル"),
98
  ],
99
+ concurrency_limit=30
100
  )
101
 
102
  if __name__ == "__main__":