EUs AI act- Risker och möjligheter att ta ställning till

Ekan Management erbjuder stöd för att genomföra riskanalys, definiera strategier och genomföra åtgärder kopplat till EUs nya AI-reglering.

EU:s nya förordning för att reglera användningen av AI inom unionen (enkelt kallad ”EU AI act”) håller på att träda i kraft. Förordningen tillämpas fullt ut i Sverige fr.o.m. halvårskiftet 2026. Den har redan börjat få konsekvenser. Mest uppseende har kanske Apples beslut fått, att inte inkludera deras nya AI-stöd i de telefoner som säljs på den Europeiska marknaden. Detta på grund av att man uppfattar lagen som delvis svårtolkad och begränsande.  

Ses både som ett hot och nödvändighet

Syftet med lagen är att skapa ett säkert och transparent AI-landskap, samtidigt som innovation främjas. Lagen har kritiserats för att vara alltför drakonisk och riskerar att hämma önskvärd utveckling och tillämpning av AI. Samtidigt lyfts den fram som världens första reglering som specifikt säkerställer individens integritet och säkerhet kopplat till hur AI används. I vanlig ordning är det svårt att förutse hur lagen kommer att tolkas och tillämpas. Få är beredda att medvetet ta risker, givet att bötesbeloppen kan landa €30 miljoner, eller mer.  

Oavsett hur man själv uppfattar att lagstiftaren har lyckats balansera sina avväganden, finns det både risker och möjligheter med en genomgripande lagstiftning som aktörer på EU-marknaden behöver agera på. 

Definitioner och risknivåer

Lagen avser systemets hela livscykel, alltså både system som utvecklas och som är fullt implementerade. Lagen bygger på en riskbaserad approach där AI-applikationer delas in i fem risknivåer: 

  • Minimal/ingen risk (tillåtna utan restriktioner) 

  • Begränsad risk (tillåtna med måttlig reglering) 

  • Systemrisk (tillåtna med reglering) 

  • Hög risk (tillåtna med hård reglering) 

  • Oacceptabel risk (förbjudna) 

En viktig aspekt är att det enligt förordningen inte är upp till tillverkaren eller användaren att avgöra om en viss mjukvara är ett AI-system. Det kommer myndigheter göra utifrån EU:s regler. Och faller AI-systemet inom en högriskkategori så måste ens verksamhet och system vara i överensstämmelse med reglerna. 

Berörda

Företag och verksamheter behöver därför själva inventera sina AI-system efter risknivå, vilket kräver detaljerad insyn i hur systemen fungerar. Detta kan vara komplicerat, särskilt för företag som använder många olika AI-lösningar eller där AI är integrerat i befintliga plattformar. Eftersom förordningen syftar till att reglera systemen innebär det att de flesta företag och verksamheter kan vara berörda. 

Kommuner och regioner träffas i stor utsträckning av de områden som är relevanta för högrisk-AI. Exempel är medicinsk utrustning, lösningar som används för att bedöma om fysiska personer har rätt till bidrag samt lösningar avsedda att användas för att påverka resultatet av ett val eller folkomröstning. 

Ekan är experter på riskanalyser och strategiutveckling

Ett första steg är att genomlysa sin verksamhet för att identifiera och noggrant lista sina AI-lösningar i syfte att kunna genomföra en riskanalys. Det är vanligt att flera AI-baserade system används inom en och samma organisation. Vissa är skräddarsydda, medan andra är integrerade i plattformar som används dagligen, som AI-drivna standardprogram eller SaaS-lösningar, vilket gör dem svårare att upptäcka. I vissa fall använder organisationer hundratals olika AI-system i olika delar av sina värdeflöden. Genom att kartlägga dessa produkter och funktioner kan såväl systemen som affären/verksamheten analyseras och kategoriseras enligt de risknivåer som anges i AI-lagstiftningen. 

Ekan Management erbjuder stöd i att riskanalyser verksamheter i syfte att kunna utveckla anpassade lösningar för att hantera risker, problemområden och möjligheter. Vi ser fram emot att diskutera hur vi kan stödja er i denna viktiga övergång. Tillsammans kan vi säkerställa att er AI-strategi är både framåtblickande och compliant med den nya förordningen. 

Nyfiken på att lära dig mer?