QAway-to commited on
Commit
a4c20c7
·
1 Parent(s): 740b560
Files changed (1) hide show
  1. app.py +3 -3
app.py CHANGED
@@ -102,7 +102,7 @@ def analyze_portfolio_streaming(text: str):
102
  prompt = f"Вот метрики портфеля: {metrics_text}. Проанализируй их и объясни сильные и слабые стороны на русском языке, как финансовый аналитик."
103
 
104
  response_llm = client.chat.completions.create(
105
- model="Qwen/Qwen2-7B-Instruct",
106
  messages=[
107
  {"role": "system", "content": SYSTEM_PROMPT},
108
  {"role": "user", "content": prompt}
@@ -142,7 +142,7 @@ def compare_portfolios_streaming(text1: str, text2: str):
142
  Сделай сравнительный анализ на русском языке как финансовый аналитик. Укажи, какой портфель сильнее, в чём риски, где преимущества."""
143
 
144
  response = client.chat.completions.create(
145
- model="Qwen/Qwen2-7B-Instruct",
146
  messages=[
147
  {"role": "system", "content": SYSTEM_PROMPT},
148
  {"role": "user", "content": prompt}
@@ -159,7 +159,7 @@ def compare_portfolios_streaming(text1: str, text2: str):
159
 
160
  def handle_chat_streaming(user_input):
161
  response = client.chat.completions.create(
162
- model="Qwen/Qwen2-7B-Instruct",
163
  messages=[
164
  {"role": "system", "content": TRADELINK_CONTEXT},
165
  {"role": "user", "content": user_input}
 
102
  prompt = f"Вот метрики портфеля: {metrics_text}. Проанализируй их и объясни сильные и слабые стороны на русском языке, как финансовый аналитик."
103
 
104
  response_llm = client.chat.completions.create(
105
+ model="meta-llama/Meta-Llama-3.1-8B-Instruct",
106
  messages=[
107
  {"role": "system", "content": SYSTEM_PROMPT},
108
  {"role": "user", "content": prompt}
 
142
  Сделай сравнительный анализ на русском языке как финансовый аналитик. Укажи, какой портфель сильнее, в чём риски, где преимущества."""
143
 
144
  response = client.chat.completions.create(
145
+ model="meta-llama/Meta-Llama-3.1-8B-Instruct",
146
  messages=[
147
  {"role": "system", "content": SYSTEM_PROMPT},
148
  {"role": "user", "content": prompt}
 
159
 
160
  def handle_chat_streaming(user_input):
161
  response = client.chat.completions.create(
162
+ model="meta-llama/Meta-Llama-3.1-8B-Instruct",
163
  messages=[
164
  {"role": "system", "content": TRADELINK_CONTEXT},
165
  {"role": "user", "content": user_input}