
RP大模型评测 Tifa-Deepsex-14b-CoT-Q8 deepseek的去审查版本
简单来说,就是模型推理参数会影响模型的性能,同时,不同模型的最优参数各不相同,我们先找合适的参数,然后在批量用闭源模型进行测评。 (这里我们用 Text-Web-ui 作为后端,调用sillytavern的前端接口来进行批量测试) (测试环境为sillytavern 聊天补全模式下, web-ui为后端的默认参数,如下图所示) 当 temperature 大于0.8,输出会出现语言混用、语法错误频出等。 temperature=1,其他参数默认情况下,文本出现的混乱。 不幸的是, v1的文本重复很严重, …
Tifa-Deepsex-14b-CoT:擅长角色扮演与超长小说生成的大模型
2025年2月10日 · Tifa-Deepsex-14b-CoT 是一个基于 Deepseek-R1-14B 深度优化的大模型,专注于角色扮演、小说文本生成以及思维链(Chain of Thought, CoT)推理能力的提升。 该模型通过多阶段训练和优化,解决了原始模型在长文本生成连贯性不足和角色扮演能力较弱的问题,特别适合 …
README.md · ValueFX9507/Tifa-Deepsex-14b-CoT-GGUF-Q4 at …
本模型基于Deepseek-R1-14B进行深度优化,借助Tifa_220B生成的数据集通过三重训练策略显著增强角色扮演、小说文本生成与思维链(CoT)能力。 特别适合需要长程上下文关联的创作场景。
rzline/Tifa-Deepsex-14b-CoT-Crazy-Q8.gguf
本模型基于Deepseek-R1-14B进行深度优化,借助Tifa_220B生成的数据集通过三重训练策略显著增强角色扮演、小说文本生成与思维链(CoT)能力。 特别适合需要长程上下文关联的创作场景。
Tifa-Deepsex-14b-CoT-GGUF-Q4官网 – 增强角色扮演与小说创作 …
Tifa-Deepsex-14b-CoT-GGUF-Q4是基于Deepseek-R1-14B训练的CoT色色AI陪伴模型,通过多阶段优化显著提升了角色扮演、小说文本生成与思维链(CoT)能力。 该模型特别适合需要长程上下文关联的创作场景,如长篇小说创作和复杂的角色扮演游戏。
Tifa-Deepsex-14b-CoT-Readme-Transalated · GitHub
2025年2月17日 · This model is deeply optimized based on Deepseek-R1-14B, significantly enhancing roleplay, novel text generation, and chain-of-thought (CoT) abilities through a triple-training strategy using the Tifa_220B dataset. It is especially suitable for creative scenarios requiring long-range contextual connections.
Tifa-Deepseek-14b-CoT - 使用人工智能编织更丰富的故事
Tifa-Deepsex-14b-CoT 模型基于 Deepseek-R1-14B 构建,在角色扮演和生成小说长度文本方面表现出色。 它拥有 128k 的超长上下文窗口,能够提供沉浸式的角色扮演体验,并显著增强叙事流畅性。
Tifa-Deepsex-14b-CoT-GGUF-Q4-基于Deepseek-R1-14B优化的角色扮演与思维链(CoT…
该产品是一款基于Deepseek-R1-14B架构的深度优化模型,通过注入大量小说数据和角色扮演数据,结合思维链(CoT)训练策略,显著提升角色扮演、小说文本生成与长程上下文关联能力。
Tifa-Deepsex-14b-CoT-GGUF-Q4:由 DeepSeek R1 提供支持的角色扮演和 CoT …
2025年2月15日 · Tifa-Deepsex-14b-CoT-GGUF-Q4 基于 Qwen2 框架构建,是一项技术奇迹,支持高效的 4 位量化,在提供强大性能的同时实现资源高效利用。 该模型拥有大约 148 亿个参数以及管理高达 128k 令牌的上下文长度的能力,非常适合生成详细且连贯的长格式内容。
Tifa-Deepsex-14b-CoT: A Large Model Specializing in Role Playing …
2025年2月10日 · Tifa-Deepsex-14b-CoT is a large model optimized based on Deepseek-R1-14B to support role-playing, novel generation and chain-of-thinking reasoning, with 128k ultra-long context capability, which improves long text coherence and creative performance through multi-stage training, suitable for scenarios that require deep conversations and complex ...
- 某些结果已被删除