2.4 AI-lagstiftning
AI-lagen är ett viktigt steg från Europeiska unionen när det gäller att skapa ett heltäckande regelverk för artificiell intelligens. Det är EU:s första större initiativ för att reglera AI och syftar till att säkerställa att AI-system som utvecklas, distribueras och används inom EU är säkra, transparenta och respekterar grundläggande rättigheter. Lagen syftar till att främja innovation och samtidigt minska de potentiella riskerna med AI.
Ett centralt inslag i AI-lagen är dess riskbaserade tillvägagångssätt för reglering av AI-system. Detta innebär att lagen klassificerar AI-system i fyra olika kategorier, var och en med olika nivåer av reglerande kontroll, baserat på den uppskattade risk de utgör:
- Oacceptabel risk AI
Dessa AI-system anses utgöra en oacceptabel risk för grundläggande rättigheter och är därför helt förbjudna. Exempel på sådana system är AI som manipulerar mänskligt beteende för att orsaka skada, realtidsansiktsigenkänning i offentliga utrymmen för brottsbekämpning (med mycket begränsade undantag) och sociala poängsystem som försöker rangordna medborgare utifrån deras beteende eller egenskaper. - Hög risk AI
AI-system i denna kategori är tillåtna men omfattas av strikta regleringskrav. Dessa system används vanligtvis inom känsliga områden där AI-beslut kan ha en betydande inverkan på enskildas liv. Exempel är AI som används inom utbildning (t.ex. för automatisk betygsättning), hälso- och sjukvård, brottsbekämpning, rekryteringsprocesser och tillgång till viktiga offentliga tjänster.
- AI med begränsad risk
AI-system som kategoriseras som AI med begränsad risk är i allmänhet tillåtna men måste uppfylla vissa krav på öppenhet. Ett vanligt exempel är chatbots eller AI-system som interagerar med användare, där det finns ett krav på att upplysa användaren om att denne interagerar med en maskin, så att användaren är medveten om att hen inte kommunicerar med en människa. - AI med minimal risk
AI-system som faller inom kategorin minimal risk kan användas fritt, även om ansvarsfull användning fortfarande starkt uppmuntras. Exempel är AI som används i spamfilter eller NPC:er i videospel.
AI-lagen, som syftar till ansvarsfull utveckling och användning av AI, beskriver flera viktiga principer som ska tillämpas på alla AI-system som inte är förbjudna. Dessa principer, oavsett om de uppmuntras eller regleras i lagen, är utformade för att säkerställa att AI-teknik används på ett sätt som är både fördelaktigt och etiskt försvarbart.
Först och främst står transparens. Lagen betonar vikten av att informera användarna när de interagerar med ett AI-system. Denna transparens är avgörande för att skapa förtroende och göra det möjligt för användarna att fatta välgrundade beslut om sina aktiviteter. Den gör det möjligt för användarna att förstå vilken typ av teknik de använder och bidrar till att undvika eventuella bedrägerier.
För det andra betonar lagen behovet av mänsklig övervakning. Särskilt i högrisk-AI-system, som kan ha betydande inverkan på enskildas liv, föreskriver lagen att det måste finnas bestämmelser om mänsklig övervakning och kontroll. Detta säkerställer att mänskligt omdöme förblir ett avgörande element i AI-drivna beslut, vilket förhindrar att AI-system fungerar autonomt i situationer där mänskligt ingripande är nödvändigt.
Vidare betonar lagen vikten av robusthet och noggrannhet. AI-system ska utformas och utvecklas så att de fungerar på ett tillförlitligt och säkert sätt. Denna princip understryker behovet av att AI-system är tillförlitliga och minimerar risken för fel eller brister, särskilt i tillämpningar där säkerheten är av största vikt.
Slutligen lägger lagen stor vikt vid datastyrning. Kvaliteten på träningsdata är avgörande för AI-systemens prestanda och rättvisa. Därför föreskriver lagen att träningsdata måste vara relevanta, representativa och fria från fördomar. Detta säkerställer att AI-system tränas på data som korrekt återspeglar den verkliga världen och inte befäster eller förstärker befintliga samhällsfördomar.