Claude (Anthropic)
Et vanlig alternativ for tekst og analyse. Passer ofte godt når du ønsker høy kvalitet uten lokalt oppsett.
Alternativer • Lokal LLM • RAG • Agenter
Når du har slettet ChatGPT er neste steg å velge en løsning som matcher behovet ditt: skybaserte modeller (som Claude), lokal LLM med LM Studio/Ollama, eller en hybrid. Under finner du en “meny” av oppsett og beste praksis.
Et vanlig alternativ for tekst og analyse. Passer ofte godt når du ønsker høy kvalitet uten lokalt oppsett.
Noen velger ikke å slette, men å stramme inn: unngå sensitive data, bruk prosjekt‑/team‑policy, og vurder hybrid.
Hold interne dokumenter og data lokalt (RAG lokalt), og bruk sky for generelle spørsmål eller språk‑polish.
LM Studio er et populært valg når du vil ha et grafisk grensesnitt: finn modell, last ned, og start en lokal server. Mange apper kan peke på et OpenAI‑kompatibelt API på din egen maskin.
Start med mindre modeller for stabil fart:
Kjør en modell i terminalen:
ollama run llama3
Bruk lokalt API i apper og scripts (standard port 11434).
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Lag et kort svar på norsk."
}'
Dybdeguider: modellvalg, ytelse, RAG og agent‑oppsett på Ollama.no.
RAG (Retrieval‑Augmented Generation) betyr at du henter relevant kontekst fra dine dokumenter før modellen svarer. For mange er dette den viktigste grunnen til å kjøre lokalt: kontekst og data kan bli værende hos deg.
En agent er en LLM som får verktøy og oppgaver: lese filer, søke, kalle API‑er, skrive utkast, eller oppdatere systemer. Nøkkelen er kontroll: minst mulige rettigheter, tydelig logging og avgrensede handlinger.
Bygg én liten agent først:
Hvis du også vil “slutte med sky” for bildemodeller, er ComfyUI et vanlig valg for lokale workflows (Stable Diffusion‑økosystemet, noder, pipelines, kontrollnet osv.).
Norsk hub og guider: ComfyUI.no.