免费开源的手机离线部署模型应用,预置了多种轻量化模型,包括 DeepSeek-R1、Qwen、Llama、Gemma、Phi 等。

【应用名称】:PocketPal

【应用包名】:com.pocketpalai

【应用版本】:1.6.9

【应用大小】:52.0MB

【适用平台】:安卓 / iOS

【官方介绍】:今天分享这款「PocketPal AI」免费开源的手机离线部署模型应用,预置了多种轻量化模型,包括 DeepSeek-R1、Qwen、Llama、Gemma、Phi 等,并支持用户自定义加载 GGUF 格式模型。对比手机安装 Ollama,这款「PocketPal AI」还提供了内存释放机制,当应用切换至后台时自动释放模型占用的内存,返回前台时快速重新加载。

【下载地址】:https://pan.baidu.com/s/1U69rs32RAr91KdGikUlLrw?pwd=87f3

【备用地址】
https://pan.quark.cn/s/7b71c54841f0

DeepSeek模型下载:
https://pan.quark.cn/s/8ef343bb560c

----------------------往期精彩----------------------


截图
PocketPal手机部署本地Deepseek模型 第5张插图

PocketPal手机部署本地Deepseek模型 第6张插图

PocketPal手机部署本地Deepseek模型 第7张插图

【使用方法】:
这款「PocketPal AI」应用提供了安卓和 iOS 版本,这里以安卓版为使用介绍,安卓端通过 MLC-LLM 等框架优化 GPU 资源调用,提升推理速度。

安装好后,需要先下载模型,点击 + 添加模型,支持在线下载模型,从 Add from Hugging Face 进行下载。
PocketPal手机部署本地Deepseek模型 第8张插图
搜索关键词 DeepSeek,此时可能需要魔法,选择你需要的模型进行下载。手机端部署,建议选择 1.5B 或者 7B。当然也可以自己下载导入。
PocketPal手机部署本地Deepseek模型 第9张插图
等待模型下载完毕后,在模型管理里面,点击 Load 启动。然后就可以使用离线版本 DeepSeek 了。
PocketPal手机部署本地Deepseek模型 第10张插图
聊天生成设置功能方面,可以对上下文设置,用户可设置生成内容的最大长度,默认建议调整为 4096 或 8000,支持选择不同预置模板,实时性能指标等。
PocketPal手机部署本地Deepseek模型 第11张插图
如果网络问题下载不了 DeepSeek 模型,那么也可以通过本地加载 GGUF 格式模型。点击 + 本地加载模型(Add Local Model)- 载入你下载好的模型 - 模型管理 - 点击 Load 启动。

拿走回复一句话,可以是吱吱吱,祝福语等,好用记得回来反馈哈

拿走回复一句话,可以是吱吱吱,祝福语等,好用记得回来反馈哈

拿走回复一句话,可以是吱吱吱,祝福语等,好用记得回来反馈哈


免责声明:
本人所发布的一切学习资料仅限用于学习目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。
本社区信息来自网络,版权争议与本社区无关。
您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。
如果您喜欢该资源,请支持购买正版,得到更好的正版服务。
如有侵权请与我们联系处理。