Spaces:
Running
Running
Update predict.py
Browse files- predict.py +4 -4
predict.py
CHANGED
@@ -36,7 +36,7 @@ def get_full_error(chunk, stream_response):
|
|
36 |
break
|
37 |
return chunk
|
38 |
|
39 |
-
def predict_no_ui(inputs, top_p, temperature, history=[], sys_prompt=""):
|
40 |
"""
|
41 |
发送至chatGPT,等待回复,一次性完成,不显示中间过程。
|
42 |
predict函数的简化版。
|
@@ -47,7 +47,7 @@ def predict_no_ui(inputs, top_p, temperature, history=[], sys_prompt=""):
|
|
47 |
history 是之前的对话列表
|
48 |
(注意无论是inputs还是history,内容太长了都会触发token数量溢出的错误,然后raise ConnectionAbortedError)
|
49 |
"""
|
50 |
-
headers, payload = generate_payload(inputs, top_p, temperature, history, system_prompt=sys_prompt, stream=False)
|
51 |
|
52 |
retry = 0
|
53 |
while True:
|
@@ -69,11 +69,11 @@ def predict_no_ui(inputs, top_p, temperature, history=[], sys_prompt=""):
|
|
69 |
raise ConnectionAbortedError("Json解析不合常规,可能是文本过长" + response.text)
|
70 |
|
71 |
|
72 |
-
def predict_no_ui_long_connection(inputs, top_p, temperature, history=[], sys_prompt=""):
|
73 |
"""
|
74 |
发送至chatGPT,等待回复,一次性完成,不显示中间过程。但内部用stream的方法避免有人中途掐网线。
|
75 |
"""
|
76 |
-
headers, payload = generate_payload(inputs, top_p, temperature, history, system_prompt=sys_prompt, stream=True)
|
77 |
|
78 |
retry = 0
|
79 |
while True:
|
|
|
36 |
break
|
37 |
return chunk
|
38 |
|
39 |
+
def predict_no_ui(api, inputs, top_p, temperature, history=[], sys_prompt=""):
|
40 |
"""
|
41 |
发送至chatGPT,等待回复,一次性完成,不显示中间过程。
|
42 |
predict函数的简化版。
|
|
|
47 |
history 是之前的对话列表
|
48 |
(注意无论是inputs还是history,内容太长了都会触发token数量溢出的错误,然后raise ConnectionAbortedError)
|
49 |
"""
|
50 |
+
headers, payload = generate_payload(api, inputs, top_p, temperature, history, system_prompt=sys_prompt, stream=False)
|
51 |
|
52 |
retry = 0
|
53 |
while True:
|
|
|
69 |
raise ConnectionAbortedError("Json解析不合常规,可能是文本过长" + response.text)
|
70 |
|
71 |
|
72 |
+
def predict_no_ui_long_connection(api, inputs, top_p, temperature, history=[], sys_prompt=""):
|
73 |
"""
|
74 |
发送至chatGPT,等待回复,一次性完成,不显示中间过程。但内部用stream的方法避免有人中途掐网线。
|
75 |
"""
|
76 |
+
headers, payload = generate_payload(api, inputs, top_p, temperature, history, system_prompt=sys_prompt, stream=True)
|
77 |
|
78 |
retry = 0
|
79 |
while True:
|