免费开源的手机离线部署模型应用,预置了多种轻量化模型,包括 DeepSeek-R1、Qwen、Llama、Gemma、Phi 等。
【应用名称】:PocketPal
【应用包名】:com.pocketpalai
【应用版本】:1.6.9
【应用大小】:52.0MB
【适用平台】:安卓 / iOS
【官方介绍】:今天分享这款「PocketPal AI」免费开源的手机离线部署模型应用,预置了多种轻量化模型,包括 DeepSeek-R1、Qwen、Llama、Gemma、Phi 等,并支持用户自定义加载 GGUF 格式模型。对比手机安装 Ollama,这款「PocketPal AI」还提供了内存释放机制,当应用切换至后台时自动释放模型占用的内存,返回前台时快速重新加载。
【下载地址】:https://pan.baidu.com/s/1U69rs32RAr91KdGikUlLrw?pwd=87f3
【备用地址】
https://pan.quark.cn/s/7b71c54841f0
DeepSeek模型下载:
https://pan.quark.cn/s/8ef343bb560c
----------------------往期精彩----------------------
截图
【使用方法】:
这款「PocketPal AI」应用提供了安卓和 iOS 版本,这里以安卓版为使用介绍,安卓端通过 MLC-LLM 等框架优化 GPU 资源调用,提升推理速度。
安装好后,需要先下载模型,点击 + 添加模型,支持在线下载模型,从 Add from Hugging Face 进行下载。
搜索关键词 DeepSeek,此时可能需要魔法,选择你需要的模型进行下载。手机端部署,建议选择 1.5B 或者 7B。当然也可以自己下载导入。
等待模型下载完毕后,在模型管理里面,点击 Load 启动。然后就可以使用离线版本 DeepSeek 了。
聊天生成设置功能方面,可以对上下文设置,用户可设置生成内容的最大长度,默认建议调整为 4096 或 8000,支持选择不同预置模板,实时性能指标等。
如果网络问题下载不了 DeepSeek 模型,那么也可以通过本地加载 GGUF 格式模型。点击 + 本地加载模型(Add Local Model)- 载入你下载好的模型 - 模型管理 - 点击 Load 启动。
拿走回复一句话,可以是吱吱吱,祝福语等,好用记得回来反馈哈
拿走回复一句话,可以是吱吱吱,祝福语等,好用记得回来反馈哈
拿走回复一句话,可以是吱吱吱,祝福语等,好用记得回来反馈哈
免责声明:
本人所发布的一切学习资料仅限用于学习目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。
本社区信息来自网络,版权争议与本社区无关。
您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。
如果您喜欢该资源,请支持购买正版,得到更好的正版服务。
如有侵权请与我们联系处理。
请登录后发表评论
注册
停留在世界边缘,与之惜别