-
Notifications
You must be signed in to change notification settings - Fork 8.1k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Openai接口网络不通的解决方案 (已支持 Railway 一键部署) #351
Comments
方案一:这个方案优点是比较简单,缺点是依赖能访问外网的服务器,成本较高。唯一需要注意的是,服务器最好选择openai支持的地区,且需要访问wechat的后台。 相关issue:#344 更新 03.11: 目前使用方案一被openai限制风险小 |
方案二
1.代理客户端启动vpn账号的获取就不赘述了,因为获取openai的API_KEY时就是需要代理的。 在本地开发环境启动代理客户端比较简单,一般都有图形界面,打开后就会把所有流量都转发到代理客户端,此时注意要开启分流模式 (PAC, 即访问国内域名不转发),不然可能访问不了wx。 如果是在服务器命令行环境,需要找一个能在linux运行的代理客户端。以clash为例,下载 clash-linux-amd64-v1.13.0.gz, 在服务器上解压并运行 启动后 clash 会监听本地的 7890 端口,所有往这个端口发送的请求都会按照一定规则 转发到 代理服务器 完成访问。 2.程序启动启动前要在config.json 中加一个proxy配置: {
"open_ai_api_key": "YOUR API KEY",
"proxy": "http://127.0.0.1:7890",
"single_chat_prefix": ["bot", "@bot"],
#... 省略 ...
} 这个配置的含义是,所有向openai发送的请求都会发送到 http://127.0.0.1:7890, 这正是clash监听的端口。 如果你用的是别的代理客户端,就改成对应的端口,比如使用 trojan-qt5 会配成 http://127.0.0.1:1080。 这样的好处是只有访问openai时会走到代理,不会影响和wx的交互。 配置添加完后,正常启动程序就可以访问 chatgpt 接口了。 |
方案三:RailWay 一键部署 (推荐)
|
python3.9版本在开了代理的情况下会运行报错,请降低urllib3模块的版本即可,pip install urllib3==1.25.11 |
期待方案三 |
[ERROR][2023-03-05 12:47:28][log.py:50] - Error communicating with OpenAI: HTTPSConnectionPool(host='api.openai.com', port=443): Max retries exceeded with url: /v1/completions (Caused by SSLError(SSLEOFError(8, 'EOF occurred in violation of protocol (_ssl.c:1129)'))) |
|
@xionghaizhi 日志显示对的吧,访问微信走直连 (不走代理) |
javax.net.ssl.SSLHandshakeException: Remote host terminated the handshake Caused by: java.io.EOFException: SSL peer shut down incorrectly 使用代理后显示这两个问题, 是需要设置证书吗 |
这个应该是代理客户端报的错, 找下对应项目的解决吧 |
能再具体些吗,我就是下载代理后,正常从网页上访问Chatgpt没问题,但接口访问一直报上面的错误 |
ok 谢谢 |
我这边用的是shellclash,支持订阅模式,SSR订阅节点也支持,傻瓜式操作,还可以配置可视化面板,代理不熟悉的可以参考这个方案 |
自己解决了: |
1 similar comment
自己解决了: |
|
有没有好用的机场推荐 |
Please press confirm on your phone. |
我也这样...有处理方案叫我下 |
@wjfkook 请问port在哪? 是这里得https://hub.docker.com/r/mirrors2/chatgpt-api-proxy ports: - 80:80吗?是应该写80吗?比如是这样写吗 |
补充方案4:通过cloudfare works创建api代理,国内服务器直接调用自己的api网址!:https://mp.weixin.qq.com/s/SYGPuHKO7ShzfmBGsQ363w |
请问方案三用微信登录经常掉线是什么情况呢? |
解决了吗? |
真的解决了,谢谢大佬! |
[CHATGPT] APIConnectionError: Error communicating with OpenAI: ('Connection aborted.', BadStatusLine('\x83\x00\x00\x01\x8f')) 大佬,这个问题怎么解决 |
关于部署在国外服务器上的方案,我这边可以提供,比较稳定,有兴趣可以联系 |
日志: 运用了方案2,用的是clash代理,启动了pac代理模式,也改了proxy,虽然可以登录微信了,但还是说连接尝试失败,然后我通过加速器访问openai的时候,可以经行注册和登录,但每次登录会报无法验证的问题,大佬们请问该怎么解决 |
你在calsh中打开了允许局域网连接(Allow LAN)吗? |
可以添加支持更改官方的请求地址吗,把 https://api.openai.com 更改为 https://123123.com 这种? |
请教下方案一,香港地区不是也限制了OpenAI的访问吗?如果确认香港服务器可以的话,我就去申请一台。看到凡请答复下,谢谢 |
我自己搭建了一个国外的vpn服务器,国内服务器连接vpn还是不能使用openai的接口,大佬有解决方案吗? |
ProxyError: ('Unable to connect to proxy', OSError(0, 'Error')) |
求大佬解决 |
在新版的compose参数时(官网复制的),无法正常启动容器,使用旧版的compose参数(此前部署成功后的)可以正常启动并使用,发现新版的缺了 COW搭建环境:docker
|
不过时间久远...不排除 |
如果自己有openai的key,可以参考这个仓库部署openi的代理地址chatgptProxyAPI |
正在想难道不支持base_url,这下帮大忙了 |
请问这里面的外网服务器的教程和购买方式,似乎404了 |
1 similar comment
请问这里面的外网服务器的教程和购买方式,似乎404了 |
按照这个方法配置后,仍会报如下错,正常的网页是可以访问chatGpt网站的,Trojan-QT5 的入站设置中socks5端口、http端口、PAC端口、Haproxy端口、haproxy状态端口以及出站端口受改为了1086,在config.json中设置为:
|
目前的几种方案:
1.直接部署在外网的服务器: 比如 xx云的香港服务器
2.国内环境开代理: 需要 代理软件 及 代理账号
3.托管到容器平台: 如Railway等平台。
背景及讨论过程参考:#310
The text was updated successfully, but these errors were encountered: