diff --git a/README.md b/README.md index 6d52e04..a8651e1 100644 --- a/README.md +++ b/README.md @@ -14,7 +14,7 @@ LM Studio localization - Norwegian [@Exlo84](https://github.com/Exlo84) - German [@marcelMaier](https://github.com/marcelMaier), [@Goekdeniz-Guelmez](https://github.com/Goekdeniz-Guelmez) - Turkish [@progesor](https://github.com/progesor) -- Russian [@shelomitsky](https://github.com/shelomitsky), [@mlatysh](https://github.com/mlatysh), [@Adjacentai](https://github.com/Adjacentai) +- Russian [@versus666jzx](https://github.com/versus666jzx), [@shelomitsky](https://github.com/shelomitsky), [@mlatysh](https://github.com/mlatysh), [@Adjacentai](https://github.com/Adjacentai) - Korean [@williamjeong2](https://github.com/williamjeong2) - Polish [@danieltechdev](https://github.com/danieltechdev) - Czech [@ladislavsulc](https://github.com/ladislavsulc) diff --git a/ru/chat.json b/ru/chat.json index 517be4b..b9b12de 100644 --- a/ru/chat.json +++ b/ru/chat.json @@ -32,6 +32,11 @@ "notes/noteLabel": "Заметка", "notes/copyContent": "Копировать содержание заметки", + "tokenCount": "Количество токенов", + "messageTokenCount": "Количество входных токенов", + "tokenCount/hint": "Количество токенов в сообщении. Подсчитывается с помощью токенизатора выбранной модели.\n\nТребует загрузки модели.", + "messageTokenCount/hint": "Количество токенов в сообщении. Подсчитывается с помощью токенизатора выбранной модели.\n\n**НЕ** включает оценку количества токенов во вложенных файлах.", + "actions/sendMessage/error": "Не удалось отправить сообщение", "actions/loadModel/error": "🥲 Не удалось загрузить модель", "actions/addFile": "[Экспериментально] Прикрепить файл к этому сообщению\n(.pdf, текст или .docx)", @@ -71,6 +76,8 @@ "editMessageConfirm/discard": "Отменить изменения", "tokenCount/totalNotAvailable": "Токенов: {{current}}", "tokenCount/totalAvailable": "Токенов: {{current}}/{{total}}", + "tokenCount/totalAvailablePercentage": "Контекст заполнен на {{percentage}}%", + "tokenCount/contextOverflow": "Необработанный контекст превышает максимальный лимит токенов модели. В зависимости от политики переполнения контекста он может быть обрезан или сообщение может быть не отправлено.", "modelLoader/manualLoadParams/label": "Выберите параметры загрузки модели вручную", "modelLoader/manualLoadParams/hint/before": "(или удерживайте ", "modelLoader/manualLoadParams/hint/after": ")", @@ -96,6 +103,7 @@ "prediction/busyModel/title": "Модель занята", "prediction/busyModel/message": "Пожалуйста, подождите, пока модель завершит работу, и попробуйте снова", "prediction/noModel/title": "Модель не выбрана", + "prediction/modelLoading": "Сообщение в очереди, будет отправлено после загрузки модели", "prediction/noModel/message": "Выберите модель для отправки сообщения", "prediction/unloadModel/error": "Не удалось выгрузить модель", @@ -111,5 +119,15 @@ "style/fontSize/label": "Размер шрифта", "style/fontSize/medium": "По умолчанию", "style/fontSize/large": "Большой", - "style/fontSize/small": "Маленький" + "style/fontSize/small": "Маленький", + + "topBarActions/duplicateChat": "Дублировать чат", + "topBarActions/clearChat": "Очистить все сообщения", + "topBarActions/clearChatConfirmation": "Вы уверены, что хотите очистить все сообщения в этом чате?", + "topBarActions/clearChatCancel": "Отмена", + "topBarActions/clearChatDelete": "Очистить всё", + + "noModels.indexing": "Индексация файлов модели... (это может занять некоторое время)", + "noModels.downloading": "Загрузка вашей первой LLM...", + "noModels": "Пока нет LLM! Скачайте одну, чтобы начать работу!" } diff --git a/ru/config.json b/ru/config.json index fbe9c2a..f4dd314 100644 --- a/ru/config.json +++ b/ru/config.json @@ -22,30 +22,40 @@ "loadParameters/description": "Настройки для контроля способа инициализации и загрузки модели в память.", "loadParameters/reload": "Перезагрузить, чтобы применить изменения", "discardChanges": "Отменить изменения", - + "loadModelToSeeOptions": "Загрузите модель, чтобы увидеть параметры", "llm.prediction.systemPrompt/title": "Системный промпт", + "llm.prediction.temperature/subTitle": "Насколько много случайности добавить. 0 даст один и тот же результат каждый раз, а более высокие значения увеличат креативность и разнообразие.", "llm.prediction.systemPrompt/description": "Используйте это поле для предоставления фона модели, такого как набор правил, ограничений или общих требований. Это поле также часто называется \"системной подсказкой\".", "llm.prediction.systemPrompt/subTitle": "Руководство для ИИ", "llm.prediction.temperature/title": "Температура", "llm.prediction.temperature/info": "Из документации llama.cpp: \"Значение по умолчанию <{{dynamicValue}}> обеспечивает баланс между случайностью и детерминизмом. В крайнем случае, температура 0 всегда будет выбирать наиболее вероятный следующий токен, приводя к идентичным результатам при каждом запуске\"", + "llm.prediction.llama.sampling/title": "Семплирование", "llm.prediction.topKSampling/title": "Сэмплирование Top K", + "llm.prediction.topKSampling/subTitle": "Ограничивает выбор следующего токена одним из k наиболее вероятных токенов. Действует аналогично температуре.", "llm.prediction.topKSampling/info": "Из документации llama.cpp:\n\nСэмплирование Top-k - это метод генерации текста, который выбирает следующий токен только из k наиболее вероятных токенов, предсказанных моделью.\n\nЭто помогает снизить риск генерации маловероятных или бессмысленных токенов, но также может ограничить разнообразие вывода.\n\nБолее высокое значение для top-k (например, 100) будет учитывать больше токенов и приведет к более разнообразному тексту, в то время как более низкое значение (например, 10) сосредоточится на наиболее вероятных токенах и сгенерирует более консервативный текст.\n\n• Значение по умолчанию <{{dynamicValue}}>", "llm.prediction.llama.cpuThreads/title": "Потоки CPU", + "llm.prediction.llama.cpuThreads/subTitle": "Количество потоков процессора, используемых во время инференса", "llm.prediction.llama.cpuThreads/info": "Количество потоков, используемых во время вычислений. Увеличение числа потоков не всегда коррелирует с лучшей производительностью. По умолчанию <{{dynamicValue}}>.", "llm.prediction.maxPredictedTokens/title": "Ограничить длину ответа", + "llm.prediction.maxPredictedTokens/subTitle": "При необходимости ограничьте длину ответа ИИ", "llm.prediction.maxPredictedTokens/info": "Контролирует максимальную длину ответа чат-бота. Включите, чтобы установить ограничение на максимальную длину ответа, или выключите, чтобы позволить чат-боту самому решать, когда остановиться.", "llm.prediction.maxPredictedTokens/inputLabel": "Максимальная длина ответа (в токенах)", "llm.prediction.maxPredictedTokens/wordEstimate": "Примерно {{maxWords}} слов", "llm.prediction.repeatPenalty/title": "Штраф за повторение", + "llm.prediction.repeatPenalty/subTitle": "Насколько сильно следует штрафовать повторяющиеся токены", "llm.prediction.repeatPenalty/info": "Из документации llama.cpp: \"Помогает предотвратить генерацию моделью повторяющегося или монотонного текста.\n\nБолее высокое значение (например, 1.5) будет сильнее штрафовать повторения, в то время как более низкое значение (например, 0.9) будет более снисходительным.\" • Значение по умолчанию <{{dynamicValue}}>", "llm.prediction.minPSampling/title": "Сэмплирование Min P", + "llm.prediction.minPSampling/subTitle": "Минимальная базовая вероятность выбора токена для вывода", "llm.prediction.minPSampling/info": "Из документации llama.cpp:\n\nМинимальная вероятность для рассмотрения токена, относительно вероятности наиболее вероятного токена. Должна быть в диапазоне [0, 1].\n\n• Значение по умолчанию <{{dynamicValue}}>", "llm.prediction.topPSampling/title": "Сэмплирование Top P", + "llm.prediction.topPSampling/subTitle": "Минимальная совокупная вероятность для возможных следующих токенов. Действует аналогично температуре", "llm.prediction.topPSampling/info": "Из документации llama.cpp:\n\nСэмплирование Top-p, также известное как ядерное сэмплирование, - это еще один метод генерации текста, который выбирает следующий токен из подмножества токенов, которые вместе имеют кумулятивную вероятность не менее p.\n\nЭтот метод обеспечивает баланс между разнообразием и качеством, учитывая как вероятности токенов, так и количество токенов для выборки.\n\nБолее высокое значение для top-p (например, 0.95) приведет к более разнообразному тексту, в то время как более низкое значение (например, 0.5) сгенерирует более сфокусированный и консервативный текст. Должно быть в диапазоне (0, 1].\n\n• Значение по умолчанию <{{dynamicValue}}>", "llm.prediction.stopStrings/title": "Стоп-строки", + "llm.prediction.stopStrings/subTitle": "Строки, при появлении которых модель должна остановить генерацию токенов", "llm.prediction.stopStrings/info": "Определенные строки, при встрече которых модель прекратит генерацию дополнительных токенов", "llm.prediction.stopStrings/placeholder": "Введите строку и нажмите ⏎", "llm.prediction.contextOverflowPolicy/title": "Переполнение контекста разговора", + "llm.prediction.contextOverflowPolicy/subTitle": "Как модель должна вести себя, если диалог становится слишком длинным", "llm.prediction.contextOverflowPolicy/info": "Определите, что делать, когда разговор превышает размер рабочей памяти модели ('контекст')", "customInputs.contextOverflowPolicy.stopAtLimit": "Остановиться на пределе", "customInputs.contextOverflowPolicy.stopAtLimitSub": "Прекратить генерацию, как только память модели заполнится", @@ -57,27 +67,168 @@ "llm.prediction.llama.presencePenalty/title": "Штраф за присутствие", "llm.prediction.llama.tailFreeSampling/title": "Сэмплирование без хвоста", "llm.prediction.llama.locallyTypicalSampling/title": "Локально типичное сэмплирование", + "llm.prediction.onnx.topKSampling/title": "Top K сэмплирование", + "llm.prediction.onnx.topKSampling/subTitle": "Ограничивает выбор следующего токена одним из k наиболее вероятных токенов. Действует аналогично температуре", + "llm.prediction.onnx.topKSampling/info": "Из документации ONNX:\n\nКоличество токенов словаря с наивысшей вероятностью для сохранения при фильтрации top-k\n\n• Этот фильтр по умолчанию отключен", + "llm.prediction.onnx.repeatPenalty/title": "Штраф за повторение", + "llm.prediction.onnx.repeatPenalty/subTitle": "Насколько сильно следует штрафовать повторяющиеся токены", + "llm.prediction.onnx.repeatPenalty/info": "Более высокое значение снижает вероятность повторов", + "llm.prediction.onnx.topPSampling/title": "Top P Семплирование", + "llm.prediction.onnx.topPSampling/subTitle": "Минимальная совокупная вероятность для возможных следующих токенов. Действует аналогично температуре", + "llm.prediction.onnx.topPSampling/info": "Из документации ONNX:\nТолько наиболее вероятные токены, суммарная вероятность которых составляет не менее TopP, остаются для генерации\n• Этот фильтр отключён по умолчанию", "llm.prediction.seed/title": "Сид", "llm.prediction.structured/title": "Структурированный вывод", "llm.prediction.structured/info": "Структурированный вывод", + "llm.prediction.structured/description": "Продвинутая настройка: вы можете задать JSON-схему, чтобы заставить модель придерживаться определённого формата вывода. Подробнее читайте в [документации](https://lmstudio.ai/docs/advanced/structured-output).", + "llm.prediction.promptTemplate/title": "Шаблон промта", + "llm.prediction.promptTemplate/subTitle": "Формат, в котором сообщения в чате отправляются модели. Изменение этого параметра может привести к неожиданному поведению — убедитесь, что понимаете, что делаете!", "llm.load.contextLength/title": "Длина контекста", + "llm.load.contextLength/subTitle": "Максимальное количество токенов, которые модель может обработать в одном запросе. Дополнительные способы управления см. в параметрах Conversation Overflow в разделе \"Inference params\"", "llm.load.contextLength/info": "Определяет максимальное количество токенов, которое модель может рассматривать одновременно, влияя на то, сколько контекста она сохраняет во время обработки", + "llm.load.contextLength/warning": "Установка большого значения длины контекста может существенно повлиять на использование памяти", "llm.load.seed/title": "Сид", + "llm.load.seed/subTitle": "Семенное число для генератора случайных чисел, используемого при генерации текста. -1 является случайным", "llm.load.seed/info": "Случайный сид: Устанавливает сид для генерации случайных чисел, чтобы обеспечить воспроизводимые результаты", "llm.load.llama.evalBatchSize/title": "Размер пакета оценки", + "llm.load.llama.evalBatchSize/subTitle": "Количество входных токенов для обработки за раз. Увеличение этого значения повышает производительность за счет использования памяти", "llm.load.llama.evalBatchSize/info": "Устанавливает количество примеров, обрабатываемых вместе в одном пакете во время оценки, влияя на скорость и использование памяти", "llm.load.llama.ropeFrequencyBase/title": "Базовая частота RoPE", + "llm.load.llama.ropeFrequencyBase/subTitle": "Пользовательская базовая частота для вращательных позиционных вложений (RoPE). Увеличение этого значения может обеспечить лучшую производительность при большой длине контекста", "llm.load.llama.ropeFrequencyBase/info": "[Продвинутое] Настраивает базовую частоту для Rotary Positional Encoding, влияя на то, как встраивается позиционная информация", "llm.load.llama.ropeFrequencyScale/title": "Масштаб частоты RoPE", + "llm.load.llama.ropeFrequencyScale/subTitle": "Длина контекста масштабируется с помощью этого коэффициента для расширения эффективного контекста с помощью RoPE", "llm.load.llama.ropeFrequencyScale/info": "[Продвинутое] Изменяет масштабирование частоты для Rotary Positional Encoding для контроля гранулярности позиционного кодирования", "llm.load.llama.acceleration.offloadRatio/title": "Разгрузка GPU", + "llm.load.llama.acceleration.offloadRatio/subTitle": "Количество дискретных слоев модели для вычисления на GPU для ускорения GPU", "llm.load.llama.acceleration.offloadRatio/info": "Установите соотношение вычислений для разгрузки на GPU. Установите 'выкл', чтобы отключить разгрузку GPU, или 'авто', чтобы позволить модели решать самостоятельно.", "llm.load.llama.flashAttention/title": "Flash Attention", + "llm.load.llama.flashAttention/subTitle": "Уменьшает использование памяти и время генерации на некоторых моделях", "llm.load.llama.flashAttention/info": "Ускоряет механизмы внимания для более быстрой и эффективной обработки", + "llm.load.numExperts/title": "Количество экспертов", + "llm.load.numExperts/subTitle": "Количество экспертов для использования в модели", + "llm.load.numExperts/info": "Количество экспертов для использования в модели", "llm.load.llama.keepModelInMemory/title": "Держать модель в памяти", + "llm.load.llama.keepModelInMemory/subTitle": "Резервировать системную память для модели, даже при выгрузке на GPU. Повышает производительность, но требует больше системной оперативной памяти", "llm.load.llama.keepModelInMemory/info": "Предотвращает выгрузку модели на диск, обеспечивая более быстрый доступ за счет повышенного использования ОЗУ", "llm.load.llama.useFp16ForKVCache/title": "Использовать FP16 для KV-кэша", "llm.load.llama.useFp16ForKVCache/info": "Уменьшает использование памяти за счет хранения кэша в половинной точности (FP16)", "llm.load.llama.tryMmap/title": "Попробовать mmap()", - "llm.load.llama.tryMmap/info": "Загружает файлы модели напрямую с диска в память" + "llm.load.llama.tryMmap/subTitle": "Улучшает время загрузки модели. Отключение этого параметра может повысить производительность, если размер модели больше доступной оперативной памяти системы", + "llm.load.llama.tryMmap/info": "Загружает файлы модели напрямую с диска в память", + + "embedding.load.contextLength/title": "Длина контекста", + "embedding.load.contextLength/subTitle": "Максимальное количество токенов, которые модель может обработать в одном запросе. Дополнительные способы управления см. в параметрах Conversation Overflow в разделе \"Параметры вывода\"", + "embedding.load.contextLength/info": "Указывает максимальное количество токенов, которые модель может обработать одновременно, что влияет на объем сохраняемого ею контекста во время обработки", + "embedding.load.llama.ropeFrequencyBase/title": "База частот RoPE", + "embedding.load.llama.ropeFrequencyBase/subTitle": "Пользовательская базовая частота для вращательных позиционных встраиваний (RoPE). Увеличение этого значения может повысить производительность при большой длине контекста", + "embedding.load.llama.ropeFrequencyBase/info": "[Дополнительно] Регулирует базовую частоту для Позиционное кодирование с поворотом, влияющее на то, как встраивается позиционная информация", + "embedding.load.llama.evalBatchSize/title": "Размер пакета оценки", + "embedding.load.llama.evalBatchSize/subTitle": "Количество входных токенов для обработки за раз. Увеличение этого параметра увеличивает производительность за счет использования памяти", + "embedding.load.llama.evalBatchSize/info": "Устанавливает количество токенов, обрабатываемых вместе в одном пакете во время оценки", + "embedding.load.llama.ropeFrequencyScale/title": "Шкала частоты RoPE", + "embedding.load.llama.ropeFrequencyScale/subTitle": "Длина контекста масштабируется на этот коэффициент для расширения эффективного контекста с помощью RoPE", + "embedding.load.llama.ropeFrequencyScale/info": "[Дополнительно] Изменяет масштабирование частоты для вращательного позиционного кодирования для управления гранулярностью позиционного кодирования", + "embedding.load.llama.acceleration.offloadRatio/title": "Разгрузка графического процессора", + "embedding.load.llama.acceleration.offloadRatio/subTitle": "Количество дискретных слоев модели для вычисления GPU для ускорения GPU", + "embedding.load.llama.acceleration.offloadRatio/info": "Установите количество слоев для выгрузки на GPU.", + "embedding.load.llama.keepModelInMemory/title": "Сохранить модель в памяти", + "embedding.load.llama.keepModelInMemory/subTitle": "Резервировать системную память для модели, даже при выгрузке на GPU. Повышает производительность, но требует больше системной оперативной памяти", + "embedding.load.llama.keepModelInMemory/info": "Предотвращает выгрузку модели на диск, обеспечивая более быстрый доступ за счет более высокого использования оперативной памяти", + "embedding.load.llama.tryMmap/title": "Попробуйте mmap()", + "embedding.load.llama.tryMmap/subTitle": "Улучшает время загрузки модели. Отключение этого параметра может повысить производительность, если модель больше доступной оперативной памяти системы", + "embedding.load.llama.tryMmap/info": "Загрузить файлы модели напрямую с диска в память", + "embedding.load.seed/title": "Seed", + "embedding.load.seed/subTitle": "Seed для генератора случайных чисел, используемого при генерации текста. -1 — это случайное начальное число", + + "embedding.load.seed/info": "Random Seed: устанавливает начальное число для генерации случайных чисел, чтобы гарантировать воспроизводимые результаты", + + "presetTooltip": { + "included/title": "Значения предустановки", + "included/description": "Следующие поля будут применены", + "included/empty": "Ни одно поле этой предустановки не применяется в этом контексте.", + "included/conflict": "Вам будет предложено выбрать, применять ли это значение", + "separateLoad/title": "Конфигурация времени загрузки", + "separateLoad/description.1": "Предустановка также включает следующую конфигурацию времени загрузки. Конфигурация времени загрузки распространяется на всю модель и требует перезагрузки модели для вступления в силу. Удерживать", + "separateLoad/description.2": "применить к", + "separateLoad/description.3": ".", + "excluded/title": "Может не применяться", + "excluded/description": "Следующие поля включены в предустановку, но не применяются в текущем контексте.", + "legacy/title": "Устаревшая предустановка", + "legacy/description": "Этот пресет является устаревшим. Он включает следующие поля, которые либо обрабатываются автоматически сейчас, либо больше не применяются." + }, + + "contextLength": { + "maxValueTooltip": "Это максимальное количество токенов, которое модель была обучена обрабатывать. Щелкните, чтобы задать контексту это значение", + "maxValueTextStart": "Модель поддерживает до", + "maxValueTextEnd": "tokens", + "tooltipHint": "Хотя модель может поддерживать до определенного количества токенов, производительность может ухудшиться, если ресурсы вашего компьютера не смогут справиться с нагрузкой — будьте осторожны при увеличении этого значения" + }, + "contextOverflowPolicy": { + "stopAtLimit": "Остановить при достижении предела", + "stopAtLimitSub": "Остановить генерацию, как только память модели заполнится", + "truncateMiddle": "Усечь середину", + "truncateMiddleSub": "Удаляет сообщения из середины разговора, чтобы освободить место для новых. Модель все равно запомнит начало разговора", + "rollingWindow": "Rolling Window", + "rollingWindowSub": "Модель всегда будет получать несколько последних сообщений, но может забыть начало разговора" + }, + + "saveConflictResolution": { + "title": "Выберите значения для включения в предустановку", + "description": "Выберите значения для сохранения", + "instructions": "Нажмите на значение, чтобы включить его", + "userValues": "Предыдущее значение", + "presetValues": "Новое значение", + "confirm": "Подтвердить", + "cancel": "Отмена" + }, + "applyConflictResolution": { + "title": "Какие значения сохранить?", + "description": "У вас есть неподтвержденные изменения, которые перекрываются с входящей предустановкой", + "instructions": "Нажмите на значение, чтобы сохранить его", + "userValues": "Текущее значение", + "presetValues": "Входящее значение предустановки", + "confirm": "Подтвердить", + "cancel": "Отмена" + }, + + "presets": { + "title": "Пресет", + "commitChanges": "Зафиксировать изменения", + "commitChanges/description": "Зафиксируйте изменения в пресете", + "commitChanges.manual": "Обнаружены новые поля. Вы сможете выбрать, какие изменения включить в пресет", + "commitChanges.manual.hold.0": "Удерживать", + "commitChanges.manual.hold.1": "чтобы выбрать, какие изменения зафиксировать в пресете", + "commitChanges.saveAll.hold.0": "Удерживать", + "commitChanges.saveAll.hold.1": "чтобы сохранить все изменения", + "commitChanges.saveInPreset.hold.0": "Удерживать", + "commitChanges.saveInPreset.hold.1": "чтобы сохранить изменения только в полях, которые уже включены в пресет", + "commitChanges/error": "Не удалось для фиксации изменений в пресете.", + "commitChanges.manual/description": "Выберите, какие изменения включить в пресет.", + "saveAs": "Сохранить как новый...", + "presetNamePlaceholder": "Введите имя пресета...", + "cannotCommitChangesLegacy": "Это устаревший пресет, и его нельзя изменить. Вы можете создать копию, используя \"Сохранить как новый...\".", + "cannotCommitChangesNoChanges": "Нет изменений для сохранения.", + "emptyNoUnsaved": "Выберите пресет...", + "emptyWithUnsaved": "Несохраненный пресет", + "saveEmptyWithUnsaved": "Сохранить пресет как...", + "saveConfirm": "Сохранить", + "saveCancel": "Отмена", + "saving": "Сохранение...", + "save/error": "Не удалось сохранить пресет.", + "deselect": "Отменить выбор пресета", + "deselect/error": "Не удалось отменить выбор пресета.", + "select/error": "Не удалось выбрать пресет.", + "delete/error": "Не удалось удалить пресет.", + "discardChanges": "Отменить несохраненное", + "discardChanges/info": "Отменить все незафиксированные изменения и восстановить исходное состояние пресета", + "newEmptyPreset": "Создать новый пустой пресет...", + "contextMenuSelect": "Выбрать пресет", + "contextMenuDelete": "Удалить" + }, + + "flashAttentionWarning": "Flash Attention — экспериментальная функция, которая может вызывать проблемы с некоторыми моделями. Если у вас возникнут проблемы, попробуйте отключить ее.", + + "seedUncheckedHint": "Случайное начальное число", + "ropeFrequencyBaseUncheckedHint": "Авто", + "ropeFrequencyScaleUncheckedHint": "Авто" } diff --git a/ru/developer.json b/ru/developer.json index 581ee33..a7bf728 100644 --- a/ru/developer.json +++ b/ru/developer.json @@ -26,6 +26,8 @@ "serverOptions/verboseLogging/subtitle": "Включить подробное ведение журнала для локального сервера", "serverOptions/contentLogging/title": "Ведение журнала запросов и ответов", "serverOptions/contentLogging/subtitle": "Настройки ведения журнала запросов / ответов", + "serverOptions/jitModelLoading/title": "Загрузка модели Just-in-time (JIT)", + "serverOptions/jitModelLoading/hint": "Когда включено, если в запросе указана модель, которая ещё не загружена, она будет автоматически загружена и использована. Кроме того, конечная точка \"/v1/models\" также будет включать модели, которые еще не загружены.", "serverOptions/contentLogging/hint": "Записывать ли запросы и/или ответы в файл журнала локального сервера.", "serverOptions/loadModel/error": "Не удалось загрузить модель", @@ -47,6 +49,9 @@ "runtimeOptions/uninstallDialog/error": "Не удалось удалить runtime", "runtimeOptions/uninstallDialog/confirm": "Продолжить и удалить", "runtimeOptions/uninstallDialog/cancel": "Отмена", + "runtimeOptions/noCompatibleRuntimes": "Совместимые среды выполнения не найдены", + "runtimeOptions/downloadIncompatibleRuntime": "Эта среда выполнения была признана несовместимой с вашей машиной. Скорее всего, она не будет работать.", + "runtimeOptions/noRuntimes": "Среды выполнения не найдены", "inferenceParams/noParams": "Нет настраиваемых параметров вывода для этого типа модели", diff --git a/ru/download.json b/ru/download.json index c35fb64..304c85e 100644 --- a/ru/download.json +++ b/ru/download.json @@ -15,5 +15,9 @@ "deeplink/confirmation/loadInChat": "Загрузить {{ modelName }} в новый чат", "deeplink/error/modelNotFound/title": "Ой, мы не смогли найти эту модель", "deeplink/error/modelNotFound/body": "Проверьте название модели и попробуйте другую опцию загрузки.", - "deeplink/actions/trySearching": "Попробуйте найти {{modelName}} на Hugging Face" + "deeplink/actions/trySearching": "Попробуйте найти {{modelName}} на Hugging Face", + + "downloadsPanel/title": "Загрузки", + "downloadsPanel/sectionTitle/ongoing": "Текущие", + "downloadsPanel/sectionTitle/completed": "Завершено" } diff --git a/ru/models.json b/ru/models.json index 7246695..4349d7c 100644 --- a/ru/models.json +++ b/ru/models.json @@ -35,6 +35,10 @@ "action.createVirtual.details/includeMachineDependent/hint": "Указывать ли конфигурации, зависящие от машины (такие как настройки GPU), в пресете. Не рекомендуется для совместного использования.", "action.createVirtual.details/config/label": "Переопределения конфигурации", "action.createVirtual.details/config.empty": "Нет переопределений конфигурации", + "action.createVirtual.details.includeMachineDependent/label": "Включить машинно-зависимые конфигурации", + "action.createVirtual.details.includeMachineDependent/hint": "Включать ли машинно-зависимые конфигурации (например, настройки GPU) в пресет. Не рекомендуется для совместного использования.", + "action.createVirtual.details.config/label": "Переопределения конфигурации", + "action.createVirtual.details.config.empty": "Нет переопределений конфигурации", "action.createVirtual.details/error": "Не удалось создать виртуальную модель.", "loader.model.bundled": "В комплекте", diff --git a/ru/shared.json b/ru/shared.json new file mode 100644 index 0000000..281c3df --- /dev/null +++ b/ru/shared.json @@ -0,0 +1,5 @@ +{ +"copyLmStudioLinkButton/toolTip": "Копировать ссылку на скачивание модели", + +"filter.noMatches": "Нет совпадений" +} \ No newline at end of file diff --git a/ru/sidebar.json b/ru/sidebar.json index 4fb7653..49ea028 100644 --- a/ru/sidebar.json +++ b/ru/sidebar.json @@ -3,6 +3,7 @@ "discover": "Обзор моделей", "myModels": "Мои модели", "developer": "Разработка", + "runtimes": "Среды выполнения", "settings": "Настройки", "download": "Загрузки" }