Installer Ollama
Last ned fra offisiell side. Start deretter en modell fra terminalen.
ollama run llama3
Guider • Oppskrifter • Eksempler
Her er en praktisk samling av oppskrifter som dekker de vanligste behovene – fra modellstyring og ytelse til integrasjon i apper og bygging av agent‑workflows.
Last ned fra offisiell side. Start deretter en modell fra terminalen.
ollama run llama3
Hold oversikt over hva du har lastet ned og frigjør plass.
ollama list
ollama rm <modell>
Start med en mindre modell. GPU/VRAM gir ofte stor effekt på respons‑tid.
I praksis ønsker du en modell for “generell assistent”, eventuelt en egen for kode og en for RAG/QA. Når du trenger konsistens kan du pakke en konfigurert modell med en fast systemprompt.
# Eksempel (konsept): lag en egen modell med fast instruksjon
# (bruk Modelfile og bygg etter Ollama-dokumentasjonen)
Du kan integrere med alt som kan gjøre HTTP-kall.
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Skriv en funksjon som validerer e-postadresser i JavaScript."
}'
Del dokumenter i passende biter (ikke for store, ikke for små) og behold metadata.
Gjør tekst til vektorer, og bruk en indeks for rask relevans-søk.
Legg inn kontekst + kildeliste i prompt. Be om svar med referanser.
Agent‑mønsteret kombinerer en LLM med et sett verktøy og en planleggingssløyfe. For å lykkes må du begrense hva agenten kan gjøre, og bygge inn verifikasjon.
Oppgave: “Les en loggfil, finn feil, lag en kort rapport og foreslå tiltak.”
Verktøy: fil-lesing (kun lese), regex‑søk, oppsummering, eksport til Markdown.