Personvern og datasikkerhet
Data blir på din maskin eller i ditt miljø. Du bestemmer hva som deles og hva som aldri forlater nettverket.
LLM • Ollama • KI‑agenter • Lokal AI
Ollama gjør det enkelt å laste ned og kjøre språkmodeller lokalt. På Ollama.no finner du en praktisk norsk startpakke: installasjon, modellvalg, RAG (dine egne data) og hvordan du bygger KI‑agenter som faktisk gjør jobben.
Data blir på din maskin eller i ditt miljø. Du bestemmer hva som deles og hva som aldri forlater nettverket.
Ingen per-token faktura. Du betaler med maskinvare du allerede har – og kan skalere etter behov.
Ollama gir en enkel CLI og et lokalt API. Det gjør prototyping og integrasjon raskt.
Kjør en modell og spør direkte i terminalen:
ollama run llama3
# skriv spørsmålet ditt…
Eller bruk API fra en app (curl):
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Forklar RAG på norsk i 5 punkter."
}'
7–8B-modeller er ofte et godt utgangspunkt. Deretter kan du teste større modeller hvis du har GPU/VRAM.
Bruk faste maler for systeminstruksjoner, og test på representative oppgaver.
Indekser dokumenter, søk frem kontekst, og la modellen svare med kildehenvisning.
Bruk funksjonskall/verktøy, begrens rettigheter, logg alt og legg inn “guardrails”.