AI-världen utvecklas snabbt. Här förklarar vi de viktigaste begreppen på ett enkelt sätt – med exempel och relevans för dig som beslutsfattare.
AGI (Artificial General Intelligence)
AGI syftar på artificiell intelligens som kan resonera, lära och förstå på samma nivå som en människa – och tillämpa kunskap över olika områden. Dagens AI-system är “smala” (narrow AI) och specialiserade, medan AGI skulle kunna fatta beslut och lösa problem inom vilket område som helst. Det är en framtidsvision, inte något som existerar idag, men begreppet används ofta i diskussioner om AI:s långsiktiga påverkan på arbete och samhälle.
Exempel: En AGI skulle kunna arbeta som läkare på morgonen, advokat på eftermiddagen och utvecklare på kvällen – utan ny träning.
Agent
En AI-agent är en programvara som självständigt kan planera, välja verktyg och utföra uppgifter för att uppnå ett mål. Till skillnad från en AI-assistent kan en agent ta egna initiativ – till exempel samla in data, analysera resultat och fatta beslut utan manuell styrning. AI-agenter används redan inom områden som automatiserad kundsupport, dataanalys och affärsövervakning.
Exempel: En säljagent kan själv hämta leads från CRM-systemet, analysera kunddata och föreslå vilka kontakter som ska prioriteras.
AI-assistent
En AI-assistent är ett digitalt stöd som hjälper användare i vardagen genom dialog – till exempel ChatGPT, Copilot eller Google Gemini. Den kan besvara frågor, skapa innehåll, analysera data eller hjälpa till med schemaläggning. Företag bygger ofta egna AI-assistenter som är tränade på interna dokument eller processer för att effektivisera arbete.
Exempel: En AI-assistent i ett företag kan svara på HR-frågor, hjälpa till med offertskrivning eller ge beslutsstöd i kundprojekt.
AI Bias
AI Bias uppstår när en AI-modell fattar beslut eller ger resultat som är snedvridna på grund av skev träningsdata. Om datan till exempel innehåller fler män än kvinnor kan modellen prestera sämre på kvinnliga exempel. Bias kan få konsekvenser i allt från rekryteringssystem till kreditbedömningar eller beslutsstöd i offentlig sektor.
Exempel: För att minska bias krävs aktiv kontroll, diversifierad data och transparens i hur modeller tränas och används.
AI Policy
En AI-policy är ett internt styrdokument som anger hur medarbetare får använda AI inom organisationen. Den beskriver vilka verktyg som är godkända, vilken information som aldrig får delas externt, och hur AI-genererat innehåll ska kontrolleras. En tydlig policy minskar riskerna för dataläckor, juridiska problem och felaktig användning av AI.
Exempel: “ChatGPT får endast användas för intern textanalys, aldrig med kunddata.”
AI-språkmodell (LLM)
En AI-språkmodell (Large Language Model) är en typ av AI som tränats på enorma mängder text för att förstå och generera mänskligt språk. Den används för att skriva, sammanfatta, översätta eller analysera text på ett sätt som liknar mänsklig kommunikation. Modeller som GPT-4, Claude eller Gemini bygger på denna teknik och utgör kärnan i de flesta moderna AI-verktyg.
AI-verktyg
AI-verktyg är applikationer som gör det möjligt att interagera med AI-modeller, exempelvis ChatGPT, Microsoft Copilot, Perplexity eller Mistral Chat. De fungerar som gränssnittet mellan användaren och modellen. Skillnaden mellan modell och verktyg är central: modellen är tekniken, verktyget är produkten du använder.
Exempel: ChatGPT är verktyget, GPT-5 är modellen.
Algoritm
En algoritm är en uppsättning instruktioner eller regler som datorn följer för att lösa ett problem. Alla AI-system bygger på algoritmer – från enkla beslutsregler till komplexa neuronnät. Skillnaden mot traditionella algoritmer är att AI-algoritmer ofta lär sig själva hur de ska förbättra resultaten baserat på data.
Exempel: En algoritm i en AI-modell kan lära sig att känna igen skillnaden mellan en katt och en hund genom att analysera tusentals bilder.
Amerikanska modeller
Amerikanska AI-modeller, som GPT-5 (OpenAI), Claude (Anthropic) eller Gemini (Google), ligger ofta i teknikens framkant. De erbjuder hög prestanda och tillgång till avancerade funktioner, men data kan behandlas utanför EU och därmed påverkas av amerikansk lagstiftning. Därför väljer vissa organisationer bort dem av integritetsskäl, särskilt inom offentlig sektor.
API (Application Programming Interface)
Ett API är ett digitalt gränssnitt som gör att olika system kan kommunicera med varandra. När du kopplar en AI-tjänst till ett affärssystem, sker kommunikationen via API:er. Tänk på API som en servitör: du beställer (prompten), servitören hämtar maten (AI-svaret) och levererar det till dig. API:er är centrala för att integrera AI i affärsflöden och skapa automatisering.
Artificiell intelligens (AI)
AI är samlingsnamnet för datorprogram som kan utföra uppgifter som normalt kräver mänsklig intelligens – som att förstå språk, känna igen bilder eller fatta beslut. AI kan vara regelstyrd, inlärningsbaserad eller generativ. De flesta företag använder redan AI, ofta i mejlfilter, sökfunktioner, rekommendationssystem eller röstassistenter.
Automatisering
Automatisering innebär att uppgifter utförs utan manuell inblandning, ofta med hjälp av AI eller systemintegrationer. Det kan handla om att generera rapporter, analysera kunddata eller skapa innehåll automatiskt. Syftet är att frigöra tid för människor att fokusera på värdeskapande arbete.
Exempel: Ett system som automatiskt skickar kundpåminnelser baserat på beteende är en form av automatisering.
Autonomi
Autonomi beskriver en AI:s förmåga att själv fatta beslut och agera utifrån mål – utan kontinuerlig mänsklig styrning. En autonom AI kan prioritera uppgifter, anpassa strategier och hantera förändringar i omgivningen. Detta är ett steg längre än automatisering, eftersom AI:n inte bara utför instruktioner utan också kan avgöra hur de ska utföras.
Exempel: En autonom drönare kan själv välja rutt och undvika hinder i realtid.
Chatbot
En chatbot är ett datorprogram som kan föra konversationer med människor via text eller röst. Tidigare generationer följde enkla manus, men moderna AI-drivna chatbots förstår naturligt språk och ger dynamiska svar. De används ofta i kundtjänst, HR och support.
Exempel: En kundtjänstbot som känner igen frustration och kopplar vidare till en människa.
Cloud AI (Molnbaserad AI)
Cloud AI innebär att AI-modeller körs i molnet i stället för på egna servrar. Det gör det enklare att använda avancerade modeller utan att behöva investera i hårdvara. Fördelarna är tillgänglighet och skalbarhet, men det finns utmaningar kring dataskydd och GDPR.
Computer Vision
Computer Vision handlar om att “lära datorer att se”. AI tränas att tolka bilder och video för att känna igen objekt, mönster och rörelser. Tekniken används i självkörande bilar, medicinsk bildanalys och kvalitetskontroll i produktion.
Context Window
Context window beskriver hur mycket information en språkmodell kan “komma ihåg” under en konversation. När fönstret blir fullt glömmer modellen början av dialogen. Större modeller har större context windows och kan hantera längre texter och mer komplexa uppgifter.
Custom GPT
En Custom GPT är en skräddarsydd version av ChatGPT, tränad med särskilda instruktioner, tonläge eller företagsdata. Det gör att företag kan skapa egna AI-assistenter som förstår deras verksamhet och begrepp. Det är ofta det första steget mot AI med verklig affärsnytta.
Dataetik
Dataetik handlar om att samla in, använda och lagra data på ett ansvarsfullt och transparent sätt. Det inkluderar integritet, samtycke och rättvisa i hur data används i AI. Bristande dataetik kan skada både förtroende och varumärke.
Dataförädling
Dataförädling innebär att rådata bearbetas och struktureras så att den blir användbar för analys eller maskininlärning. Det omfattar rensning, märkning och kategorisering. Kvaliteten på datan avgör hur bra AI-modeller presterar.
Datapipeline
En datapipeline beskriver flödet av data från insamling till användning i AI-modeller. Den består ofta av flera steg: insamling, transformering, lagring och modellträning. En välbyggd pipeline möjliggör kontinuerlig förbättring utan manuell hantering.
Datapunkt
En datapunkt är den minsta enheten i en datamängd – till exempel en kundpost eller en mening. AI-modeller tränas på miljontals datapunkter som tillsammans skapar mönster. Ju mer representativa datapunkterna är, desto bättre resultat.
Deep Learning (Djupinlärning)
Djupinlärning är en avancerad form av maskininlärning som använder artificiella neuronnät med många lager. Varje lager lär sig olika nivåer av abstraktion, från kanter i en bild till hela objekt. Tekniken ligger bakom röstassistenter, självkörande bilar och språkmodeller.
Deepfakes
Deepfakes är syntetiskt skapade bilder, ljud eller videor som imiterar verkliga personer. De kan användas kreativt men utgör också en säkerhetsrisk när de används för bedrägeri eller propaganda. Företag behöver rutiner för att upptäcka och hantera deepfakes.
Edge AI
Edge AI innebär att AI-beräkningar sker direkt på enheten där datan genereras, inte i molnet. Det ger snabbare svar och bättre integritet. Används ofta i IoT, fordon och säkerhetssystem.
Embeddings
Embeddings representerar ord eller data som siffervektorer, vilket gör att AI kan förstå samband mellan begrepp. De används i sökfunktioner, semantisk analys och RAG-lösningar.
Exempel: En AI som hittar rätt FAQ-svar baserat på betydelsen av en fråga, inte exakta ord.
Etisk AI
Etisk AI handlar om att utveckla och använda AI på ett sätt som är rättvist, transparent och ansvarsfullt. Det omfattar frågor om bias, ansvar och mänsklig övervakning. Företag som arbetar med etisk AI stärker både varumärke och förtroende.
EU AI Act
EU AI Act är EU:s nya lag som reglerar hur AI får användas. Den delar in AI-system i fyra risknivåer – från minimal till oacceptabel risk. Lagen kräver transparens och ansvar, och påverkar både utvecklare och användare av AI inom EU.
Europeiska modeller
Europeiska AI-modeller utvecklas med fokus på integritet och dataskydd, och följer GDPR. De används ofta av organisationer som vill ha full kontroll över sin information. Exempel på europeiska modeller är Mistral AI och Aleph Alpha.
Explainable AI (XAI)
Explainable AI handlar om att göra AI:s beslut begripliga för människor. Det ökar transparensen och förtroendet för systemen. XAI används särskilt i branscher där beslut påverkar människor direkt, som finans, sjukvård och offentlig sektor.
Fine-tuning
Fine-tuning innebär att man tränar en befintlig AI-modell vidare på företagets egen data för att göra den mer relevant för specifika uppgifter. Genom att ge modellen exempel från den egna verksamheten lär den sig terminologi, processer och tonläge. Det gör att den svarar mer korrekt och kontextuellt i ditt sammanhang. Fine-tuning används ofta för att bygga skräddarsydda AI-lösningar som känns “egna”.
Exempel: Ett försäkringsbolag kan fine-tuna en språkmodell med sina villkor och interna dokument, så att den svarar korrekt på kundfrågor.
Foundation Model
En Foundation Model är en bred AI-modell som tränats på enorma datamängder och kan användas som grund för många olika uppgifter. Den kan förstå och generera språk, bild, ljud eller kod beroende på träningsdata. Många företag bygger sina AI-lösningar ovanpå en foundation model i stället för att börja från noll. Den fungerar alltså som en “plattform” för mer specialiserade AI-tillämpningar.
Exempel: GPT-4 och Claude 3 är foundation models som används i hundratals appar och tjänster.
Generativ AI
Generativ AI kan skapa nytt innehåll som text, bilder, video, ljud eller kod. Till skillnad från traditionell AI, som analyserar eller klassificerar, producerar generativ AI något nytt baserat på sin förståelse av data. Tekniken har revolutionerat allt från marknadsföring till produktutveckling och design. För företag innebär det möjligheten att automatisera kreativitet och idéarbete på ett sätt som tidigare krävde mänsklig insats.
Exempel: Att generera marknadsföringstexter eller skapa produktbilder utifrån en prompt.
Generative Engine Optimization (GEO)
GEO handlar om att optimera innehåll så att det syns, citeras och förstås korrekt av AI-verktyg som ChatGPT, Perplexity och Gemini. På samma sätt som SEO (Search Engine Optimization) hjälper webbsidor att ranka högt i Google, hjälper GEO företag att bli synliga i AI-svar. Det blir allt viktigare i takt med att fler söker information via generativa AI-system i stället för traditionella sökmotorer.
Exempel: Att använda llms.txt-filer och strukturerad metadata så att AI hittar rätt fakta från din webbplats.
Hallucination
En hallucination uppstår när en AI hittar på information som låter trovärdig men inte stämmer. Det beror på att språkmodellen gissar baserat på sannolikhet snarare än faktakontroll. Hallucinationer är en av de största riskerna vid användning av generativ AI i arbete som kräver precision. Därför är mänsklig granskning och verifiering alltid nödvändig.
Exempel: En AI som påstår att en rapport finns fast den inte gör det, eller tillskriver citat till fel person.
Inferens
Inferens är processen när en tränad AI-modell används för att göra förutsägelser eller generera resultat utifrån ny data. Det är alltså själva “körningen” av modellen i praktiken. I stora språkmodeller sker inferens varje gång du ställer en fråga och får ett svar. Effektiv inferens är avgörande för prestanda, särskilt när AI ska användas i realtid.
Exempel: När du skriver en prompt i ChatGPT och modellen svarar, är det en inferensprocess som sker.
ISO/IEC 42001
ISO/IEC 42001 är den nya internationella standarden för AI-ledningssystem (AIMS – Artificial Intelligence Management System). Den hjälper organisationer att etablera styrning, riskhantering och transparens i sin AI-användning. Precis som ISO 9001 sätter ramar för kvalitet, sätter ISO 42001 ramar för ansvarsfull AI. Standarden väntas bli central för upphandlingar och kundkrav de kommande åren.
Exempel: Ett företag som vill visa att de använder AI på ett kontrollerat och etiskt sätt kan certifiera sig enligt ISO/IEC 42001.
Klassificering
Klassificering innebär att AI sorterar data i kategorier baserat på mönster den lärt sig. Det är en av de vanligaste användningarna av maskininlärning. AI kan till exempel klassificera mejl som spam eller inte, bilder som “hund” eller “katt”, eller texter som positiva eller negativa. Klassificering används i allt från kundanalys till kvalitetskontroll.
Exempel: Ett företag kan använda AI för att klassificera inkommande supportärenden efter ämne eller prioritet.
Lokala AI-modeller
Lokala AI-modeller körs på företagets egna servrar eller datorer i stället för i molnet. Det ger full kontroll över data och säkerhet, men kräver mer teknisk kompetens och resurser. För verksamheter med känslig information – som offentlig sektor, juridik eller vård – är detta ofta ett viktigt alternativ. Lokala modeller eliminerar risken att data skickas till externa molnleverantörer.
Training data (märkt data)
Training data är den data som används för att träna AI-modeller. Märkt data innebär att varje datapunkt har en känd betydelse eller kategori, vilket hjälper modellen att lära sig korrekt beteende. Kvaliteten på träningsdatan är avgörande för modellens precision. “Garbage in, garbage out” är ett vanligt uttryck inom AI-utveckling.
Exempel: En bild av en hund märks som “hund”, vilket hjälper modellen att känna igen andra hundar i framtiden.
Large Language Model (LLM)
En Large Language Model är en typ av AI-modell som tränats på enorma mängder text för att förstå och generera språk. LLM:er som GPT-5, Claude 3 och Gemini kan svara på frågor, skriva texter, analysera data och översätta språk. De fungerar genom att förutsäga nästa ord i en sekvens baserat på tidigare sammanhang. LLM:er är grunden för de flesta moderna AI-assistenter och affärsapplikationer.
Exempel: När du skriver till ChatGPT använder du en LLM för att generera text i realtid baserat på din prompt.
Maskininlärning (Machine Learning, ML)
Maskininlärning är en metod inom AI där datorn lär sig av data i stället för att få exakta instruktioner. Genom att analysera stora datamängder hittar modellen mönster som den kan använda för att göra förutsägelser eller beslut. Maskininlärning används i allt från spamfilter och rekommendationssystem till analys av kundbeteenden.
Exempel: Ett e-handelsföretag kan använda maskininlärning för att förutsäga vilka produkter en kund sannolikt kommer att köpa baserat på tidigare köp.
MCP (Model Context Protocol)
MCP, eller Model Context Protocol, är en ny standard som låter AI-modeller koppla upp sig mot externa verktyg och datakällor på ett säkert sätt. Det gör att modeller kan hämta realtidsinformation från exempelvis dokumentdatabaser, kalendrar eller CRM-system. MCP väntas bli en viktig komponent i framtidens AI-ekosystem eftersom det gör modellerna mer dynamiska och användbara.
Exempel: En AI-assistent som kan läsa ett aktuellt dokument i företagets intranät tack vare MCP-stöd.
Modellträning
Modellträning är processen där en AI-modell lär sig genom att analysera stora mängder data. Under träningen justeras modellens interna parametrar för att minska fel och förbättra noggrannhet. En vältränad modell kan sedan användas för att fatta beslut, skapa innehåll eller ge rekommendationer baserat på ny information.
Exempel: När en språkmodell tränas på miljoner texter för att kunna förstå naturligt språk, är det modellträning som sker.
Multimodal AI
Multimodal AI kan förstå och kombinera flera typer av data – som text, bild, ljud och video – i samma system. Det gör AI:n mer flexibel och användbar i komplexa scenarier där flera datatyper behöver analyseras samtidigt. Multimodal AI används redan i analysverktyg, röstassistenter och kreativt innehållsskapande.
Exempel: Ett verktyg som kan tolka en graf, läsa siffror, lyssna på tal och generera en sammanfattning av ett möte i textform.
Naturlig språkbehandling (NLP)
Naturlig språkbehandling, eller NLP (Natural Language Processing), handlar om att ge datorer förmågan att förstå, tolka och generera mänskligt språk. Det är grunden för chattbottar, översättningsverktyg och textanalys. NLP används också för att känna av sentiment, sammanfatta långa dokument och skapa innehåll automatiskt.
Exempel: Ett HR-verktyg som kan analysera öppna textkommentarer från medarbetarenkäter och sammanfatta stämningen i organisationen.
Neuronnät
Neuronnät är matematiska modeller inspirerade av hur hjärnan fungerar. De består av lager av “neuroner” som bearbetar information i flera steg. Neuronnät används i nästan all modern AI, särskilt i djupinlärning, bildigenkänning och språkmodeller. Ju fler lager ett nätverk har, desto mer komplexa mönster kan det lära sig att känna igen.
Exempel: Ett neuronnät kan känna igen ansikten, läsa handstil eller förstå meningar beroende på vilken data det tränas på.
Objektigenkänning
Objektigenkänning är en teknik inom datorseende där AI identifierar och klassificerar objekt i bilder eller video. Det används i allt från säkerhetskameror och självkörande bilar till lagerhantering och kvalitetskontroll. Tekniken bygger på neuronnät som lärt sig känna igen tusentals olika objekt med hög precision.
Exempel: En AI i ett övervakningssystem som kan avgöra om ett föremål är en människa, ett fordon eller ett djur.
Open Source AI
Open Source AI innebär att koden och ibland träningsdata till en AI-modell är offentligt tillgänglig. Det gör att företag och forskare kan granska, modifiera och förbättra modellen. Öppen AI främjar innovation och transparens, men kräver ofta mer teknisk kompetens att använda. För företag kan open source vara ett sätt att minska beroendet av stora kommersiella leverantörer.
Exempel: LLaMA, Mistral och DeepSeek är populära open source-modeller som används som alternativ till GPT-5.
Optimering
Optimering inom AI handlar om att förbättra prestanda och noggrannhet i modeller. Under träning justeras modellens parametrar tills resultatet blir så nära det önskade som möjligt. Optimering används även i tillämpade AI-system för att välja bästa möjliga beslut baserat på mål och begränsningar. I praktiken sker optimering i nästan varje steg av AI-utveckling.
Exempel: Ett logistiksystem som använder AI för att optimera rutter och minska bränsleförbrukning.
Parameter
Parametrar är de interna variabler som styr hur en AI-modell fungerar. En stor språkmodell kan ha hundratals miljarder parametrar som justeras under träningen. Parametrarna avgör hur modellen tolkar data, väger samband och genererar svar. Fler parametrar betyder inte alltid bättre resultat – kvaliteten på data och träning är minst lika viktig.
Exempel: GPT-4 har cirka 1,8 biljoner parametrar, vilket gör den mycket mer komplex än tidigare generationer.
POC (Proof of Concept)
En Proof of Concept är ett test som syftar till att bevisa att en AI-idé fungerar i praktiken. POC:en fokuserar på att verifiera teknik, data och koncept, inte att skapa en färdig produkt. Många AI-projekt börjar som en POC för att snabbt utvärdera potentialen innan man bygger vidare mot en MVP (Minimum Viable Product).
Exempel: Ett företag testar en AI-modell för att analysera kundfeedback innan de integrerar den i hela kundtjänstflödet.
Predictive Analytics (Prediktiv analys)
Prediktiv analys använder historisk data för att förutsäga framtida händelser eller beteenden. Med hjälp av maskininlärning kan systemet identifiera mönster som människor ofta missar. Prediktiv analys används inom försäljning, ekonomi, HR och logistik. Det ger beslutsstöd genom att visa sannolika utfall baserat på tidigare trender.
Exempel: En bank kan förutsäga vilka kunder som riskerar att byta leverantör eller missa betalningar.
Prompt
En prompt är instruktionen du ger till en språkmodell för att få ett svar. Den kan vara en fråga, en uppmaning eller ett komplext scenario. Hur du formulerar din prompt påverkar direkt kvaliteten på svaret. Att skriva bra prompts har blivit en egen kompetens – ofta kallad prompt engineering.
Exempel: “Skriv en marknadsföringstext för en ny miljövänlig elbil i svensk ton” är en prompt.
Prompt engineering
Prompt engineering handlar om att utforma effektiva instruktioner till AI-modeller för att styra utfallet. Genom att specificera roll, format, ton och kontext kan man få mer relevanta och korrekta svar. Det är en nyckelkompetens i moderna AI-arbetsflöden, särskilt för generativa system. Ju bättre prompt, desto bättre resultat.
Exempel: “Du är en juridisk rådgivare. Granska följande text och föreslå förbättringar enligt svensk lag.”
Reinforcement Learning
Reinforcement Learning är en metod där AI lär sig genom att testa olika handlingar och få belöningar eller straff beroende på resultatet. Den används ofta i spel, robotik och optimering av komplexa beslutssystem. Tekniken efterliknar hur människor och djur lär sig av erfarenhet – genom återkoppling. En avancerad variant, RLHF (Reinforcement Learning from Human Feedback), används för att finjustera språkmodeller som ChatGPT.
Exempel: En AI som lär sig spela schack genom att spela mot sig själv och justera strategin efter varje parti.
Retrieval-Augmented Generation (RAG)
RAG kombinerar språkmodeller med faktabaserade databaser för att ge mer korrekta och aktuella svar. I stället för att enbart förlita sig på vad modellen minns, kan den hämta information i realtid från externa källor. RAG används ofta i företagslösningar för att bygga AI-assistenter som svarar utifrån intern kunskap i stället för att “hitta på”.
Exempel: En kundservice-AI som hämtar svar från företagets dokumentdatabas innan den svarar på en fråga.
Synthetic data (Syntetisk data)
Syntetisk data är konstgjord data som genereras av AI för att efterlikna riktig information. Den används ofta när verklig data är bristfällig, känslig eller svår att samla in. Fördelen är att den kan skydda integritet och ändå möjliggöra träning av kraftfulla modeller. Syntetisk data används allt mer i forskning, testning och modellutveckling.
Exempel: Ett sjukhus kan skapa syntetisk patientdata för att träna AI-modeller utan att avslöja riktiga personuppgifter.
Token
En token är den minsta textenhet som en språkmodell använder när den bearbetar eller genererar språk. En token kan vara ett helt ord, ett ordfragment eller ett skiljetecken. Antalet tokens avgör hur mycket text modellen kan hantera och påverkar också kostnaden för användningen av AI-tjänster. Att förstå tokens är viktigt för att optimera prestanda och budget vid användning av stora språkmodeller.
Exempel: Ordet “AI-utveckling” kan delas upp i tre tokens: “AI”, “-”, “utveckling”.
Transfer Learning
Transfer Learning innebär att man återanvänder kunskap från en redan tränad modell för en ny uppgift. I stället för att börja träna från grunden anpassas modellen till ett nytt område med mindre mängd data. Det sparar både tid och resurser, och är särskilt användbart för företag med begränsad datamängd. Transfer Learning är en grundprincip i många moderna AI-lösningar.
Exempel: En AI som tränats på engelska texter kan snabbt anpassas till svenska genom transfer learning.
Transparent AI
Transparent AI innebär att det är tydligt hur en AI-modell fungerar, tränas och används. Transparens handlar både om att kunna förklara beslutsprocessen och att öppet redovisa begränsningar, källor och risker. För företag är transparent AI viktigt för att bygga förtroende hos användare och kunder. Det är även en central del av EU:s AI Act och ISO 42001-ramverket.
Exempel: En bank kan publicera information om hur deras kreditbedömnings-AI fungerar och vilka data den baseras på.
Vektordatabas
En vektordatabas lagrar information i form av matematiska vektorer, vilket gör det möjligt för AI att söka efter likheter i betydelse snarare än exakta ord. Det används ofta tillsammans med embeddings och RAG-lösningar för att bygga intelligenta sök- och frågesystem. Vektordatabaser är centrala i moderna kunskapsdrivna AI-applikationer.
Exempel: När du söker efter “hållbar energi” och även får träffar på “grön el” beror det på en vektordatabas som hittar semantiska samband.
Vibe coding
Vibe coding är ett nytt sätt att programmera där du beskriver vad du vill åstadkomma och låter AI skriva koden. Utvecklaren agerar mer som coach och ger återkoppling på resultatet snarare än att själv skriva varje rad. Det gör utveckling snabbare, mer kreativ och tillgänglig för fler. För C-level innebär det en möjlighet att drastiskt minska tiden från idé till fungerande prototyp.
Exempel: En produktchef kan be AI att “skapa ett enkelt gränssnitt för inloggning med Google” och få fungerande kod på sekunder.
Weak supervision
Weak supervision är en metod för att träna AI-modeller med delvis eller otydligt märkt data. I stället för att ha perfekta etiketter utnyttjar modellen mönster, regler eller flera svaga källor för att lära sig ändå. Det gör att man kan bygga användbara modeller även när datan inte är helt perfekt. Weak supervision blir allt vanligare i praktiska tillämpningar där det är dyrt eller svårt att samla in ren data.
Exempel: En AI för textanalys kan tränas på artiklar med osäkra etiketter som “möjligen positiv” eller “troligen negativ” och ändå uppnå bra resultat.