fix
This commit is contained in:
@@ -44,6 +44,19 @@
|
||||
|
||||
В коде пайплайна имя модели задаётся конфигом (например, `OLLAMA_LLM_MODEL=qwen3:14b`).
|
||||
|
||||
## Параметры генерации (options) для LLM
|
||||
|
||||
Для стабильного структурированного вывода (JSON framework) в `run_framework_ollama.py` передаётся блок `options`:
|
||||
|
||||
| Параметр | Значение | Назначение |
|
||||
|----------------|----------|------------|
|
||||
| `temperature` | 0.3 | Ниже = детерминированнее ответ, меньше смены языка и «творчества». Для извлечения frame лучше 0.2–0.5. |
|
||||
| `num_ctx` | 8192 | Размер контекста (токены). Должен вмещать главу + промпт. |
|
||||
| `num_predict` | 4096 | Макс. токенов ответа, чтобы полный JSON не обрезался. |
|
||||
| `repeat_penalty` | 1.1 | Снижает повторения в тексте. |
|
||||
|
||||
Изменить можно в коде (`OLLAMA_OPTIONS`) или через переменные окружения, если скрипт будет их читать.
|
||||
|
||||
## Локальный Ollama (без Docker)
|
||||
|
||||
Если Ollama установлен локально:
|
||||
|
||||
Reference in New Issue
Block a user