Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

in keys.ts,I need full three ? #35

Open
labixiaoyuan opened this issue Jun 19, 2024 · 7 comments
Open

in keys.ts,I need full three ? #35

labixiaoyuan opened this issue Jun 19, 2024 · 7 comments

Comments

@labixiaoyuan
Copy link

export const keys = {
groq: '',
ollama: 'http://localhost:11434/api/chat',
openai: ''
};

@labixiaoyuan
Copy link
Author

按照 README.md 里的描述来操作,有三个疑问。一:keys.tx文件中,是否需要把groq、allma、openai 都填写?二、第5步,在Terminal 中 输入 'ollama pull moondream:1.8b-v2-fp16' 或者 'moondream:1.8b-v2-fp16' 会报错,报错如下:ollama pull moondream:1.8b-v2-fp16。。。。三、如果跳过第5步,可以正常启动,但是在web界面中输入任务命令,都是没有返回的。
photo

@GALA009
Copy link

GALA009 commented Jun 20, 2024

因为你本地没有 ollama 模型,接口请求的时候失败所以没响应,你可以安装其他模型如:ollama3,不一定是 moondream:1.8b-v2-fp16 模型

@labixiaoyuan
Copy link
Author

对的,我本地是没有模型的,问别人要的的地址。我以为这样是可以的。那我现在去本机安装一个模型

@YMAdAstra
Copy link

请问楼主按照步骤成功了吗,我也遇到的相同问题,进入那个界面有哪些任务命令可以使用,不是任意的吗

@YMAdAstra
Copy link

请问楼主按照步骤成功了吗,我也遇到的相同问题,
图片
进入那个界面有哪些任务命令可以使用,不是任意的吗

@HaoHoo
Copy link

HaoHoo commented Jul 7, 2024

因为你本地没有 ollama 模型,接口请求的时候失败所以没响应,你可以安装其他模型如:ollama3,不一定是 moondream:1.8b-v2-fp16 模型

解释图片需要多模态的模型,也就是具备vision的,例如llava-llama3之类

@HaoHoo
Copy link

HaoHoo commented Jul 7, 2024

按照 README.md 里的描述来操作,有三个疑问。一:keys.tx文件中,是否需要把groq、allma、openai 都填写?二、第5步,在Terminal 中 输入 'ollama pull moondream:1.8b-v2-fp16' 或者 'moondream:1.8b-v2-fp16' 会报错,报错如下:ollama pull moondream:1.8b-v2-fp16。。。。三、如果跳过第5步,可以正常启动,但是在web界面中输入任务命令,都是没有返回的。 photo

ollama里可以拉的moondream模型的名称可能是不一样的,可根据实际的改一下代码

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

4 participants