Ronnie Sunde

Blog

AI - Artificiell Intelligens

Artificiell intelligens (AI) handlar om att skapa system som kan efterlikna och förstärka mänskliga kognitiva processer. Detta dokument fokuserar på språkmodeller (LLMs) och hur du kan använda dem både online och lokalt.

Innehållsförteckning

Modeller

Modeller är hjärtat i moderna AI-system - de är matematiska eller datorbaserade strukturer som tränas på data för att upptäcka mönster och göra prediktioner. Tänk på dem som “hjärnor” som kan specialiseras för olika uppgifter:

Tips: När du väljer en modell, börja med att identifiera dina behov (textgenerering, kod, chat) och tillgängliga resurser (minne, processorkraft).

Grundläggande Koncept

Typer av Modeller

Träningsprocess

Modellnamn

Modellnamn ger information om arkitektur, version, storlek och kvantisering. Exempel:

Vad namnen betyder

  1. Modellfamilj: “GenericModel” anger modellens namn.
  2. Version: “V2” visar att det är version 2.
  3. Parameterstorlek: “7b” eller “14b” anger antalet parametrar i miljarder.
  4. Specialfunktioner: “MGRPO” eller “CoT” visar unika egenskaper.
  5. Kvantisering: Indikeras med “Q4”, “Q8”, “F16”, “FP32” för precisionen.

Dessa namn hjälper användaren att snabbt se modellens egenskaper och göra rätt val för sina behov.

Observera: Modellnamn kan verka komplexa men följer oftast ett logiskt mönster som hjälper dig förstå modellens kapacitet och resurskrav.

Översikt för Modellstorlekar, Kvantisering och Utrymme

Modellstorlekar

Kvantisering

Disk och minneskrav

Modellens filstorlek och minneskrav beror på vald parameterstorlek och kvantisering; hög precision och fler parametrar kräver mer utrymme.

Viktigt: Kvantisering är ett sätt att minska modellens storlek med viss precisionsförlust. Välj nivå baserat på dina behov av precision vs. resurskrav.

Kombinationer – För- och Nackdelar

Liten Modell: 350M med Q4

Medelmodell: 7B med Q8

Stor Modell: 175B med FP32

Praktiskt exempel: En 7B-modell med Q8 kvantisering är ofta en bra startpunkt för lokala experiment, då den balanserar prestanda och resurskrav.

Jämför modeller online - rankings

Basmodeller för Hemmasnickare

Det finns flera platser där man kan hitta och experimentera med AI-modeller:

Populära Plattformar

Fördelar med Open Source Modeller

Populära Startmodeller

Modeller (basmodeller)

Ytterligare modeller och dess varianter

Jämförelse: Online Pro vs. Lokala Modeller

Många av de kraftfulla AI-modellerna som erbjuds online av stora företag har ofta motsvarigheter eller “syskon” i open source-världen som kan köras lokalt. Ibland är de lokala versionerna direkta nedskalade eller tidigare versioner av pro-modellerna, medan andra gånger är de inspirerade av samma arkitekturer. Att förstå dessa kopplingar kan hjälpa dig att välja rätt modell för dina behov, oavsett om du prioriterar toppmodern prestanda via ett API eller flexibiliteten och integriteten med en lokal modell. Det är dock viktigt att notera att en direkt och exakt versionsmatchning sällan är möjlig, då online-tjänster kontinuerligt uppdateras och open source-modeller följer sina egna utvecklingscykler.

Online Pro Modell (ofta stängd källkod) Motsvarande Lokal Modell (ofta open source) Kommentar
Google Gemini Google Gemma Gemma är en familj av lättviktsmodeller från Google, inspirerade av samma forskning och teknologi som Gemini. De är dock distinkta modellfamiljer med egna versioner (t.ex. Gemma 2B/7B) som inte direkt mappas till specifika Gemini API-versioner (t.ex. Gemini 1.5 Pro).
Anthropic Claude Starka öppna alternativ: Llama 3, Mistral (t.ex. Mixtral 8x7B), Qwen2 Anthropic har inte släppt en officiell öppen källkodsversion av Claude. De listade modellerna är högpresterande alternativ från öppen källkodsgemenskapen.
OpenAI GPT-serien (t.ex. GPT-4) Llama-familjen, Mistral, Phi Open source-modeller strävar efter att matcha GPT-seriens kapacitet, ofta med fokus på specifik prestanda.
Cohere Command R+ Cohere Command R Command R är en mindre, open source-version avsedd för lokal körning och anpassning.

Notera: “Motsvarande” betyder inte alltid identisk prestanda eller funktionalitet. Online pro-modeller är oftast större och tränade på mer omfattande dataset. De lokala modellerna erbjuder dock en utmärkt balans mellan prestanda, anpassningsbarhet och tillgänglighet för utvecklare och entusiaster.

Användning - Online och Lokalt

Online

Populära tjänster (Gratis med begränsningar):

Kom ihåg: Online-tjänster är enklast att komma igång med, medan lokala installationer ger mer kontroll och integritet.

Lokalt

För att köra AI-modeller lokalt och få ut maximal prestanda, se vår dedikerade guide: Lokal AI.

För dig som även vill förstå hur säkerhet och AI integreras i operativsystem, kika i Operating Systems.

Användning i Arbetssyfte

Pro-tips för AI-användning

För enklaste vägen in, börja med någon av onlinestjänsterna direkt i webbläsaren - det kräver minimal setup och ger snabba resultat, med det kräver mycket copy/paste. Om du behöver mer kontroll eller vill experimentera, testa lokala modeller via Ollama eller LM Studio.

När du jobbar med källkod, använd gärna plugins direkt i din IDE. Kom ihåg att inkludera relevant kontext när du ställer frågor, och spara dina bästa prompts för återanvändning. För dokumentation, låt AI:n hjälpa till att expandera dina utkast men behåll din personliga stil.

Det viktigaste är att börja enkelt och utöka användningen i din egen takt - AI är ett verktyg som ska underlätta ditt arbete, inte komplicera det.

Verktyg

Copilot (GitHub Copilot)

GitHub Copilot är en AI-assistent som är djupt integrerad i kodeditorer som Visual Studio Code och Visual Studio och sätter ett tydligt exempel för hur en sådan integration bör fungera.

Andra AI Plugins i Kodeditorer

Utöver Copilot finns det flera andra AI-baserade plugins som hjälper utvecklare att skriva kod mer effektivt och på ett mer intelligent sätt, dessa har oftast inte lika bra integration som Copilot, en fördel de har är att de kan nyttja lokala modeller från Ollama eller LM Studio.

Sammanfattning

AI-baserade plugins för kodeditorer är en kraftfull hjälp för att skriva kod snabbare och mer effektivt. Även om dessa verktyg har många fördelar, som snabbare kodning och realtidsförslag, måste utvecklare vara medvetna om att AI:n inte alltid är perfekt och att de bör granska förslagen noggrant.