返回列表 发布新帖
查看: 26|回复: 0

Ollama本地大模型管理器(AI写的)

3778

主题

0

回帖

1万

积分

论坛元老

积分
12224
发表于 4 天前 | 查看全部 |阅读模式
用本地Qwen+Deepseek大模型写的,自己也修改了一部分
想用来测试一下离线模型的效率~~~~~~
主要用来主动提前加载大模型,以节省首次和大模型交互的响应时间
或者手动从显存中卸载大模型,以便快速释放显存
**程序主要用于Ollama且基于默认的11434端口**
其他大模型调试软件,或者非Ollama默认端口的,请忽略!!
使用时注意点:
1.需要Ollama主程序正常运行中;
2.预加载大模型后还需要在交互客户端选择预加载的模型名称;

重申:本程序只时起到将模型提前载入显存或卸载出显存而已!!!
考虑到已经是手动操作了,就直接默认是永久加载,再设闲置时效好像意义不大!!!

https://120439037.lanzoum.com/iqhne3p0j8xe

      
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2001-2026 52线报网 版权所有 All Rights Reserved. |网站地图 闽ICP备19006036号-4
关灯 在本版发帖
扫一扫添加微信客服
返回顶部
快速回复 返回顶部 返回列表