Eliot0110 commited on
Commit
ddc2802
·
1 Parent(s): 7206a42

fix: align run_inference

Browse files
Files changed (1) hide show
  1. modules/info_extractor.py +5 -4
modules/info_extractor.py CHANGED
@@ -21,10 +21,11 @@ class InfoExtractor:
21
  # 确保调用AI模型时,使用类似 do_sample=False 或 temperature=0 的参数
22
  # 这里我们模拟这个调用,并强调其重要性
23
  log.info("🧠 使用LLM开始提取信息 (模式: 确定性)")
24
- raw_response = self.ai_model.generate(
25
- prompt,
26
- do_sample=False, # 关键:关闭采样,获取最可能的结果
27
- temperature=0.0 # 关键:将温度设为0,减少随机性
 
28
  )
29
 
30
  try:
 
21
  # 确保调用AI模型时,使用类似 do_sample=False 或 temperature=0 的参数
22
  # 这里我们模拟这个调用,并强调其重要性
23
  log.info("🧠 使用LLM开始提取信息 (模式: 确定性)")
24
+ raw_response = self.ai_model.run_inference(
25
+ input_type='text',
26
+ formatted_input=None,
27
+ prompt=prompt,
28
+ temperature=0.0
29
  )
30
 
31
  try: