LLM • Ollama • KI‑agenter • Lokal AI

Kom i gang med LLM på din egen maskin – med Ollama

Ollama gjør det enkelt å laste ned og kjøre språkmodeller lokalt. På Ollama.no finner du en praktisk norsk startpakke: installasjon, modellvalg, RAG (dine egne data) og hvordan du bygger KI‑agenter som faktisk gjør jobben.

Personvern Full kontroll Rask prototyping

Hvorfor kjøre LLM lokalt?

Personvern og datasikkerhet

Data blir på din maskin eller i ditt miljø. Du bestemmer hva som deles og hva som aldri forlater nettverket.

Forutsigbare kostnader

Ingen per-token faktura. Du betaler med maskinvare du allerede har – og kan skalere etter behov.

Lav friksjon for utviklere

Ollama gir en enkel CLI og et lokalt API. Det gjør prototyping og integrasjon raskt.

Hva kan du bygge med Ollama?

  • Intern chat: svar på policy, rutiner og FAQ – på egne dokumenter.
  • Kodeassistent: forklar, refaktorér og generér kode lokalt.
  • RAG: finn relevant informasjon i PDF/Markdown/Confluence‑eksport.
  • Agenter: automatisér oppgaver med verktøy (søk, filer, API-er).
Eksempel

Kjør en modell og spør direkte i terminalen:

ollama run llama3
# skriv spørsmålet ditt…

Eller bruk API fra en app (curl):

curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt": "Forklar RAG på norsk i 5 punkter."
}'

Veikart: fra “hello world” til KI‑agent

1

Start med en modell som passer maskinen din

7–8B-modeller er ofte et godt utgangspunkt. Deretter kan du teste større modeller hvis du har GPU/VRAM.

2

Legg på struktur: prompts, roller og evalueringsrutiner

Bruk faste maler for systeminstruksjoner, og test på representative oppgaver.

3

Gi modellen egne data med RAG

Indekser dokumenter, søk frem kontekst, og la modellen svare med kildehenvisning.

4

Bygg KI‑agenter med verktøy og kontroll

Bruk funksjonskall/verktøy, begrens rettigheter, logg alt og legg inn “guardrails”.