LLM • Ollama • KI‑agenter • Lokal AI

Bygg lokal AI på norsk med Ollama – fra test til nytte

Ollama gjør det enkelt å kjøre språkmodeller lokalt. På Ollama.no finner du en oppdatert norsk startpakke for 2026: installasjon, modellvalg, RAG på egne data og trygg agent‑arkitektur som faktisk fungerer i hverdagen.

Personvern Full kontroll Rask prototyping

Hvorfor velger flere lokal LLM i 2026?

Personvern og datasikkerhet

Data blir på din maskin eller i ditt miljø. Du bestemmer hva som deles og hva som aldri forlater nettverket.

Forutsigbare kostnader

Lavere variabelkostnad enn sky per kall. Du bruker egen maskinvare og kan planlegge kostnader mer forutsigbart.

Lav friksjon for utviklere

Ollama gir en enkel CLI og et lokalt API. Det gjør prototyping og integrasjon raskt.

Hva kan du bygge med Ollama?

  • Intern chat: svar på policy, rutiner og FAQ – på egne dokumenter.
  • Kodeassistent: forklar, refaktorér og generér kode lokalt.
  • RAG: finn relevant informasjon i PDF/Markdown/Confluence‑eksport.
  • Agenter: automatisér oppgaver med verktøy (søk, filer, API-er).
Eksempel

Kjør en modell og spør direkte i terminalen:

ollama run llama3.2
# skriv spørsmålet ditt…

Eller bruk API fra en app (curl):

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt": "Forklar RAG på norsk i 5 punkter."
}'

Veikart: fra første prompt til produksjonsklar agent

1

Start med en modell som passer maskinen din

På en vanlig laptop: prøv llama3.2 (3B) eller gemma3:4b. Har du GPU med 8–12 GB VRAM: mistral eller phi4 (14B). Kodefokus: qwen2.5-coder:7b.

2

Legg på struktur: prompts, roller og evalueringsrutiner

Bruk faste maler for systeminstruksjoner, og test på representative oppgaver.

3

Gi modellen egne data med RAG

Indekser dokumenter, søk frem kontekst, og la modellen svare med kildehenvisning.

4

Bygg KI‑agenter med verktøy og kontroll

Bruk funksjonskall/verktøy, begrens rettigheter, logg alt og legg inn “guardrails”.

Se også:

openclawd.no quitgpt.no språkmodell.no språkmodeller.no