《DeepSeek》运用常见难题集合1、deepseek网页/app/调用api/本地部署之间的不同差异是啥子
①网页和app没有不同差异,app是套壳
②api调用是通过接口通信,实际能力和网页没有不同差异
③本地部署实际上部署的不是满血deepseek-r1,而是蒸馏模型,能力相对较弱,32b模型学说上具有满血r1 90%的能力
2、酒馆是啥子?
酒馆指SillyTavern,壹个前端页面,需要调用模型的api或者ollama来运用ai模型
3、破限是啥子?
ai本身具有道德墙/道德限制,破限是突破ai内容审查的一种方法,通过一系列提示词绕过ai的内容审查
4、何故我的ai回复到一半接着就被撤回了
你的回答涉及到敏感话题,被二次审查过滤了
5、我的ai有道德限制,我该怎样绕开
请运用群文件里的穿甲弹(思考到大群本身不允许相关讨论,因此如果想要更多相关资源请去无禁群)
6、英伟达ai是否满血
英伟达部署的ai为满血671b,但ai响应速度会比正常的deepseek官方慢,主要体现在跑长文时
7、deepseek有上下文限制吗?可以突破这个限制吗?
有。如:在cherry中调用api,可以在模型配置中快捷修改上下文数
8、我该怎样本地部署
详情请参考B站up主:NathMath的视频。BV1NGf2YtE8r
DeepSeek R1 推理模型 完全本地部署教程:
9、本地部署时,我该怎样选择最适合我的模型大致?
参考上一条NathMath的视频。简单来说,当你拥有独立显卡时(最好是N卡),内存大致+显存大致就是最合适的模型大致,选择大致最相近的模型。如:我是4050(8G显存)+16G内存,那么选择14b模型相对合适
10、在cherry studio里面链接好了之后呢
在cherry studio里配置好链接后,回到主界面,主界面上方可选择模型。英伟达的deepseek叫deepseek-ai/deepseek-r1
11、.md格式的文件如何运用?
.md格式文件是用Markdown格式编写的纯文这篇文章小编将件,提议配置Typora对此类文件进行查看和编辑。当然vs code也可以打开这类文件
12、Git和nodejs可以放在别的盘吗
最好不要。后续进行其他配置的时候会有报错
13、360纳米ai里面deepseek是满血吗?
不是,32b都没过的玩意,很笨,提议不用
14、何故我的ai越到后面跑的越慢
ai的计算量会随着文本量递增,越用越慢是正常的,可以新开壹个对话
15、ds他在对话中输出纯空白是由于啥子?
被外网攻击了
16、对话记录最多能保存几天
api的话是保存在你运用的api软件里面的,也就是本地,是无限时长的(只要你不删文件),而网页/app到现在没有删,不确定具体保存时刻。
17、网页版或者APP版是671b吗?
是的
18、chatbox这些可以直接接api吗
目前没法调官网api