{"unit":"https://weblate.immersivetranslate.com/api/units/70082/?format=json","component":"https://weblate.immersivetranslate.com/api/components/immersive-document-translation/immersive-translate-site/?format=json","translation":"https://weblate.immersivetranslate.com/api/translations/immersive-document-translation/immersive-translate-site/zh_Hant/?format=json","user":null,"author":null,"timestamp":"2026-03-20T09:40:52.535871Z","action":59,"target":"所有用戶目前均可使用 GLM-4-Flash-250414 模型進行翻譯，而 Pro 用戶還可額外選擇使用 Qwen3.5-Plus/DeepSeek-V3.2/doubao-seed-2-0-lite/Kimi+Qwen/Kimi+DeepSeek/GLM-4.7 模型（以實際可選模型為準）進行翻譯。\n\n經過對比我們發現 Kimi-K2.5 提取術語效果較好，因此推出“Kimi + Qwen”和“Kimi + DeepSeek”翻譯服務：\n\n若選擇“Kimi + Qwen”翻譯服務，且啟用自動術語提取，則會使用 Kimi-K2.5 提取術語，並使用 Qwen3.5-Plus 完成文字翻譯。相關消耗均會計入 Qwen 消耗。（限時測試）\n\n若選擇“Kimi + DeepSeek”翻譯服務，且啟用自動術語提取，則會使用 Kimi-K2.5 提取術語，並使用 DeepSeek-V3.2 完成文字翻譯。相關消耗均會計入 DeepSeek 消耗。（限時測試）\n\n由於 BabelDOC 採用後端翻譯架構，所有翻譯邏輯均在伺服器端執行，與擴充功能所使用的翻譯引擎相互獨立。因此，BabelDOC 可選用的翻譯引擎範圍與沉浸式翻譯擴充功能存在差異，BabelDOC 僅支持部分高級翻譯模型，並非所有高級模型均可使用。","id":138588,"action_name":"String updated in the repository","url":"https://weblate.immersivetranslate.com/api/changes/138588/?format=json"}