Generell assistent
Bruk en balansert instruksjonsmodell til tekst, oppsummering og Q&A. Start med 7–8B.
Kom i gang • Sjekkliste • Beste praksis
Denne sjekklisten tar deg fra installasjon til en fungerende lokal LLM‑stack: modellvalg, ytelse, API-integrasjon, RAG og grunnmur for KI‑agenter.
ollama run llama3
Tips: Hvis du får treg respons, start med en mindre modell og sjekk ressursbruk.
ollama listollama --help11434Bruk en balansert instruksjonsmodell til tekst, oppsummering og Q&A. Start med 7–8B.
Velg en kodefokusert modell hvis du jobber mye i terminal/IDE og ønsker bedre kodefullføring.
Prioritér stabil instruksjonsfølge, god “grounding” og tydelige svarformat.
Praktisk regel: mindre modeller gir ofte bedre interaktiv fart, mens større modeller kan gi høyere kvalitet på komplekse oppgaver – spesielt med god kontekst.
Ollama eksponerer et lokalt HTTP‑API. Det gjør integrasjon enkel i alt fra scripts til web‑apper.
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Skriv en kort guide til Ollama på norsk."
}'
RAG (Retrieval‑Augmented Generation) betyr at du henter relevant kontekst fra egne data før modellen svarer. Resultatet er mer presise svar, mindre hallusinasjon og bedre sporbarhet.
RAG gjør det fristende å putte “alt” i indeksen. Bruk tilgangsstyring, og separer data per team/prosjekt.
En agent er en LLM som får verktøy og en oppgaveflyt. Eksempel: hent status fra et API, lag et sammendrag og opprett en oppgave i et system. Nøkkelen er kontroll: begrens verktøy, valider input og logg alt.
HTTP-kall, filsystem, søk, databaser, interne API-er – men kun det agenten trenger.
Regler, whitelists, rate‑limits og menneske‑i‑loopen for kritiske handlinger.
Mål kvalitet med testsett og “golden prompts”. Overvåk drift med logging og metrikk.