LocalChat UI
Loading...
Local LLM Chat UI

LocalChat UI

Připojeno k lokálnímu GGUF modelu

Ahoj! Jsem tvoje lokální UI. Abych mohl komunikovat s tvým modelem, ujisti se, že ti na pozadí běží např. LM Studio (s povoleným lokálním serverem) nebo llama.cpp.

Klikni na ozubené kolo vpravo nahoře pro nastavení API adresy.

Zpracování probíhá lokálně na vašem HW. Data nikam neodcházejí.