
Deekseek r1本地部署,14b和32b最小需要多大显存吗? - 知乎
再来看看14b模型,这个模型的显存要求是9 gb左右,这时候所谓的甜品卡rtx4060就爆显存了,速度不到780m核显的一半。 而且核显在内存超频过程中推理效率提升了17.8%,但是核心超频的作用不大。
deepseek-r1的1.5b、7b、8b、14b、32b、70b和671b有啥区别?
8b-14b:可用于一些对模型性能有一定要求,但又没有超高性能硬件支持的场景,如小型企业的日常文本处理、普通的智能客服等。 32b-70b:能满足一些对准确性有较高要求,同时硬件条件相对较好的场景,如专业领域的知识问答系统、中等规模的内容创作平台等。
昨天在本地部署了deepseek r1-8b\14b\32b - 电脑讨论(新)
2025年2月1日 · 以前没玩过本地化ai模型,暂时只能拿小说测试,8b还挺流畅,14b能感觉明显比8b慢一点,32b就慢得有点难受了,感觉14b是个比较好的平衡点 用32b跑小说的时候,后台查看资源占用,发现cpu占用大约47%~50%,内存占用33%,12G显存占用10.5G,还有给共享显存占 …
8GB显存也能畅玩14B大模型?DeepSeek-R1本地部署体验分享!
各位小伙伴们,最近我成功在本地部署了DeepSeek-R1的8B模型,运行体验简直棒极了(我的显卡是10GB显存),所以一直担心跑不动14B语言模型。 但实际测试下来,14B模型也没有太大压力,这让我非常惊喜!
本地部署deepseek 14b与32b模型对比解析 - 百度贴吧
2025年1月30日 · 不过32b更优一点,首先语言是我提问时的简中,其次回答时两遍都是正确答案,结论正确。还有用语拟人化,把用户当成老师。14b就机械化一点。
Light-R1-14B-DS强化训练报告——成功的RL需要避免失败 - 知乎
1 天前 · 在这里,向大家报告我在Light-R1-14B-DS强化训练过程中所遇到,并最终避免的失败。 背景自OpenAI-o1发布后,工业界和开源社区便纷纷尝试使用强化学习进行复现,大体使用了类似ReFT的技术方案。不过,直到Deepseek …
DeepSeek-R1-Distill-Qwen-14B-模型库-ModelZoo-昇腾社区
DeepSeek-R1-Distill-Qwen-14B是DeepSeek AI从DeepSeek-R1模型中蒸馏出来的Qwen模型,比经过强化学习训练出来的小型稠密模型拥有更好的推理能力。
deepseek-r1:14b
Below are the models created via fine-tuning against several dense models widely used in the research community using reasoning data generated by DeepSeek-R1. The evaluation results demonstrate that the distilled smaller dense models perform exceptionally well on benchmarks. DeepSeek-R1-Distill-Qwen-1.5B. DeepSeek-R1-Distill-Qwen-7B.
【AI+智造】在阿里云Ubuntu 24.04上部署DeepSeek R1 14B的完 …
2025年2月28日 · DeepSeek R1 14B:国产MoE混合专家模型,上下文窗口4096 tokens,支持中文场景优化; 阿里云ECS配置:推荐g7规格,8核 + 64GB内存 + 200GB SSD; 2.2 架构拓扑图
微软Phi-4封神,14B小模型数学击败GPT-4o,合成数据占比40%,…
微软下一代14B小模型Phi-4出世了! 仅用了40%合成数据,在数学性能上击败了GPT-4o,最新36页技术报告出炉。 140亿参数,40%合成数据,年度SLM之王诞生!