]> git.djapps.eu Git - pkg/ggml/sources/llama.cpp/commit
webui: auto-refresh /props on inference start to resync model metadata (#16784)
authorPascal <redacted>
Sat, 1 Nov 2025 18:49:51 +0000 (19:49 +0100)
committerGitHub <redacted>
Sat, 1 Nov 2025 18:49:51 +0000 (19:49 +0100)
commit2f68ce7cfd20e9e7098514bf730e5389b7bba908
treea3c1dfda68b8a528728c0c1501c533ab8cfdd716
parente4a71599e5846110159955dec0008eb4aa24222b
webui: auto-refresh /props on inference start to resync model metadata (#16784)

* webui: auto-refresh /props on inference start to resync model metadata

- Add no-cache headers to /props and /slots
- Throttle slot checks to 30s
- Prevent concurrent fetches with promise guard
- Trigger refresh from chat streaming for legacy and ModelSelector
- Show dynamic serverWarning when using cached data

* fix: restore proper legacy behavior in webui by using unified /props refresh

Updated assistant message bubbles to show each message's stored model when available,
falling back to the current server model only when the per-message value is missing

When the model selector is disabled, now fetches /props and prioritizes that model name
over chunk metadata, then persists it with the streamed message so legacy mode properly
reflects the backend configuration

* fix: detect first valid SSE chunk and refresh server props once

* fix: removed the slots availability throttle constant and state

* webui: purge ai-generated cruft

* chore: update webui static build
tools/server/public/index.html.gz
tools/server/webui/src/lib/components/app/chat/ChatMessages/ChatMessageAssistant.svelte
tools/server/webui/src/lib/services/chat.ts
tools/server/webui/src/lib/stores/chat.svelte.ts
tools/server/webui/src/lib/stores/server.svelte.ts
tools/server/webui/src/lib/types/api.d.ts
tools/server/webui/src/lib/types/settings.d.ts