Personvern og datasikkerhet
Data blir på din maskin eller i ditt miljø. Du bestemmer hva som deles og hva som aldri forlater nettverket.
LLM • Ollama • KI‑agenter • Lokal AI
Ollama gjør det enkelt å kjøre språkmodeller lokalt. På Ollama.no finner du en oppdatert norsk startpakke for 2026: installasjon, modellvalg, RAG på egne data og trygg agent‑arkitektur som faktisk fungerer i hverdagen.
Data blir på din maskin eller i ditt miljø. Du bestemmer hva som deles og hva som aldri forlater nettverket.
Lavere variabelkostnad enn sky per kall. Du bruker egen maskinvare og kan planlegge kostnader mer forutsigbart.
Ollama gir en enkel CLI og et lokalt API. Det gjør prototyping og integrasjon raskt.
Kjør en modell og spør direkte i terminalen:
ollama run llama3.2
# skriv spørsmålet ditt…
Eller bruk API fra en app (curl):
curl http://localhost:11434/api/generate -d '{
"model": "llama3.2",
"prompt": "Forklar RAG på norsk i 5 punkter."
}'
På en vanlig laptop: prøv llama3.2 (3B) eller
gemma3:4b. Har du GPU med 8–12 GB VRAM:
mistral eller phi4 (14B). Kodefokus:
qwen2.5-coder:7b.
Bruk faste maler for systeminstruksjoner, og test på representative oppgaver.
Indekser dokumenter, søk frem kontekst, og la modellen svare med kildehenvisning.
Bruk funksjonskall/verktøy, begrens rettigheter, logg alt og legg inn “guardrails”.
Se også: