ccwgoto
(cocw)
2025 年3 月 17 日 13:24
1
想要翻译质量好、速度快、能联系上下文
应该用什么模型?(包括外部 api)
配置?(段落数等)
1 个赞
handsome
(大帅哥)
2025 年3 月 17 日 13:45
2
用的deeplx
zhxhwyzh14
(布布)
2025 年3 月 17 日 13:46
3
同楼上。
tounh
(Tounh)
2025 年3 月 17 日 13:47
4
在他还没火的时候已经包了会员,现在用他会员下的openai和claude,快一年了
Kakarotto
(Kakarotto)
2025 年3 月 17 日 13:51
5
之前用deepseek,现在用grok
xcafe
2025 年3 月 17 日 13:54
6
grok参数需要特别设置吗
Lush
(多云转晴)
2025 年3 月 17 日 13:55
7
用的老马的grok150
Kakarotto
(Kakarotto)
2025 年3 月 17 日 13:56
8
用的默认的,感觉翻译的没有多好但也没有多差
1 个赞
Oojialin
(加林)
2025 年3 月 17 日 17:38
9
先把火山送的用完
1 个赞
XiaoHuang
(小黄)
2025 年3 月 17 日 17:39
10
用的火山的Deepseek v3
1 个赞
Simonho
(Simonho)
2025 年3 月 18 日 06:56
11
用的V3,或者gemini的2.0 flash和Gemini Experimental 1206。要是追求质量就上claude
nbdql
(ちいかわ)
2025 年3 月 18 日 07:02
12
模型个人感觉并不是最重要的,始皇的DeepLX,grok2,gemini flash,deepseek v3一级claude任君挑选(佬友们反馈gork2体验不佳,fuck M***k),目前我自用的是论坛内佬友的一个轻量化服务器翻译模型本地自建沉浸式翻译可用、离线、速度超快、配置要求超低的翻译服务器 ,但是佬您需要进行一些设置,参考黛玉佬的🌌 (๑•̀ㅂ•́)و✧ 一个简单设置,大幅提升沉浸式翻译质量!! @Dr.X @Qiner
2 个赞
Cosmosurfer
(二次元刀哥)
2025 年3 月 18 日 08:13
13
模型还是挺重要的 grok2和gemini从翻译上讲差距挺大的 比如前者会把论坛语境中的「小鸡」翻译成chick ,而后者会翻译成server
3 个赞
biribiri
(biribiri)
2025 年3 月 18 日 08:15
14
实话说差挺多的,grok2我白嫖了150刀但真的用不下去
1 个赞
ccwgoto
(cocw)
2025 年3 月 18 日 13:07
15
谢佬!已设解决方案
7god
2025 年3 月 18 日 13:10
16
deeplx我觉得翻译的差点意思,我用4o-mini,站内很多免费的api,够每天的量了
system
(system)
关闭
2025 年4 月 17 日 13:11
17
此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。