FAQ • LLM • Ollama • Lokal AI
FAQ: Vanlige spørsmål om Ollama, LLM og KI‑agenter
Oppdatert for april 2026: korte, praktiske svar om lokal AI, sikkerhet, maskinvare og hvordan du får stabile resultater i drift.
Spørsmål og svar
Hva er forskjellen på en LLM og en chatbot?
LLM er selve språkmodellen. En chatbot er et grensesnitt og en samtalelogikk rundt modellen – ofte med minne, verktøy, moderering og integrasjoner.
Trenger jeg GPU?
Nei, du kan starte på CPU. Men GPU/VRAM gir ofte vesentlig bedre svartid og kapasitet. Start med en liten modell, mål responstid, og oppgrader først når du ser reelt behov.
Er lokale modeller “like gode” som sky‑modeller?
Det kommer an på oppgaven og modellen. For mange interne arbeidsflyter kan lokale modeller være svært gode, spesielt når du kombinerer med RAG og tydelige instruksjoner.
Hva er RAG, og hvorfor trenger jeg det?
RAG henter relevant kontekst fra egne kilder før modellen svarer. Det gir høyere treffsikkerhet, færre hallusinasjoner og bedre sporbarhet når svar må kunne etterprøves.
Hva er en KI‑agent?
En agent er en LLM som kan bruke verktøy og følge en oppgaveflyt. Eksempler: hente data fra API, opprette saker, skrive rapporter, oppdatere dokumentasjon. God sikkerhet krever begrensede rettigheter og logging.
Hvordan holder jeg data trygt?
Kjør lokalt/privat miljø, unngå å logge sensitive data, bruk tilgangsstyring for RAG‑indekser, og sett guardrails på agent‑verktøy (whitelists, scopes, approvals).
Hva med lisens og bruk av modeller?
Modeller har ulike lisenser og vilkår. Sjekk alltid lisensen for modellen du laster ned – spesielt ved kommersiell bruk.
Hvilke modeller er populære å bruke med Ollama i dag?
Per mars 2026 er disse mye brukt: llama3.2 (3B, rask og CPU-vennlig), mistral (7B, god allrounder), phi4 (14B, effektiv med høy kvalitet), qwen2.5-coder:7b (kode), deepseek-r1:8b (resonering og steg-for-steg), og gemma3:4b (Googles kompakte modell). For RAG-embeddings er nomic-embed-text et vanlig valg. Se hele listen på ollama.com/library.
Støtter Ollama OpenAI-kompatibelt API?
Ja. Ollama har et OpenAI-kompatibelt endepunkt på
http://localhost:11434/v1. Det betyr at biblioteker
og verktøy som bruker OpenAI sin SDK (Python, Node.js,
LangChain, m.fl.) kan peke mot Ollama uten store kodeendringer –
bare bytt ut base-URL og velg lokal modell.
Hva er DeepSeek, og kan jeg kjøre det lokalt?
DeepSeek er en serie åpenvekts-modeller utviklet av et kinesisk
AI-selskap.
DeepSeek-R1 er kjent for sterk resoneringsevne
(chain-of-thought). Du kan kjøre destillerte utgaver lokalt med
Ollama: ollama run deepseek-r1:8b. Sjekk
lisensvilkårene – spesielt ved kommersiell bruk.