Europaparlamentets lagstiftare närmar sig hur man ska hantera generativ AI när de arbetar med att fastställa sin förhandlingsposition så att nästa fas av lagstiftningsdiskussioner kan inledas under de kommande månaderna.
Hoppet är sedan att en slutlig konsensus om blockets utkast till lagstiftning om reglering av AI kan nås före årets slut.
”Detta är det sista som återstår i förhandlingarna”, säger MEP Dragos Tudorache, medföredragande för EU:s AI-lag, när han diskuterar MEP:ernas diskussioner om generativ AI i en intervju med TechCrunch. ”Medan vi talar kryssar vi de sista ”T:en” och prickar de sista ”I:en”. Och någon gång nästa vecka hoppas jag att vi faktiskt kommer att slutföra – vilket innebär att vi kommer att rösta i maj.”
Rådet antog sin ståndpunkt om regleringen redan i december. Men medan medlemsländerna i stor utsträckning föredrog att skjuta upp beslutet om vad man ska göra med generativ AI till ytterligare genomförandelagstiftning, ser MEP:erna ut att föreslå att hårda krav läggs till själva lagen.
Under de senaste månaderna har lobbyister från teknikjättarna pushat åt motsatt håll, förstås, med företag som Google och Microsoft som argumenterar för att generativ AI ska få en undantagsbestämmelse från de kommande EU-reglerna om AI.
Vad som kommer att hända återstår att se. Men när det gäller parlamentets ståndpunkt avseende generativ AI-teknik i lagen föreslår Tudorache att MEP:erna är inne på ett stegvis tillvägagångssätt – faktiskt tre steg – ett för att ta itu med ansvar längs AI-värdekedjan, ett annat för att säkerställa att grundmodeller får vissa begränsningar och ett tredje för att hantera specifika innehållsfrågor kopplade till generativa modeller, som till exempel OpenAIs ChatGPT.
Enligt MEP:ernas nuvarande tankegång skulle ett av dessa tre steg gälla allmänna ändamål AI (GPAI) – oavsett om det är stora eller små modeller, grundläggande eller icke-grundläggande modeller – och fokusera på att reglera relationerna i AI-värdekedjan.
”Vi anser att det behövs en nivå av regler som säger att ’entitet A’ som marknadsför en allmän ändamål [AI] har en skyldighet gentemot ’entitet B’, som köper den allmänna ändamål [AI] och faktiskt ger den ett syfte”, förklarar han. ”Eftersom det ger den ett syfte som kan bli högrisk behövs viss information. För att följa [AI-lagen] måste den förklara hur modellen tränades. Noggrannheten hos datamängderna och eventuella snedvridningar [osv].”
Ett andra föreslaget steg skulle ta itu med grundmodeller genom att ställa upp vissa specifika skyldigheter för tillverkare av dessa grundmodeller.
”På grund av deras styrka, sättet de tränas på och deras mångsidighet anser vi att leverantörerna av dessa grundmodeller måste göra vissa saker – både ex ante… men också under modellens livstid”, säger han. ”Det handlar om transparens, det handlar återigen om hur de tränar, hur de testar innan de kommer ut på marknaden. Så i grunden handlar det om vilken nivå av noggrannhet och ansvar de har som utvecklare av dessa modeller?”
Det tredje steget som MEP:erna föreslår skulle rikta sig specifikt mot generativ AI – vilket innebär en delmängd av GPAI/grundmodeller, som stora språkmodeller eller generativa modeller för konst och musik. Här arbetar lagstiftare med att fastställa parlamentets mandat och anser att dessa verktyg behöver ännu mer specifika ansvarsuppgifter, både när det gäller vilken typ av innehåll de kan producera (med tidiga risker som rör desinformation och förtal) och när det gäller den svåra (och alltmer juridiskt stridiga) frågan om upphovsrättsskyddat material som används för att träna AI.
”Vi uppfinnar inte ett nytt regelverk för upphovsrätt eftersom det redan finns upphovsrättslagar. Vad vi säger… är att det måste finnas dokumentation och transparens om materialet som utvecklaren använde vid träningen av modellen”, betonar han. ”Så att efteråt rättighetsinnehavarna… kan säga ’Hallå, vänta lite, du använde mina data, du använde mina låtar, du använde min vetenskapliga artikel – väl, tack så mycket, det var skyddat enligt lagen, därför är du skyldig mig något – eller inte. För det kommer vi att använda befintliga upphovsrättslagar. Vi ersätter inte det eller gör det inom AI-lagen. Vi tar bara med det.”
Kommissionen föreslog utkastet till AI-lagstiftning för två år sedan och lade fram en riskbaserad strategi för att reglera tillämpningar av artificiell intelligens och gav parlamentet och rådet, de två medlagstiftarna i EU, uppgiften att anta världens första horisontella reglering av AI.
Antagandet av denna planerade EU-lag om AI är fortfarande långt borta. Men framsteg görs och enighet mellan MEP:er och medlemsländer om en slutlig text kan utarbetas före årets slut, enligt Tudorache – som noterar att Spanien, som tar över det roterande sexmånadersordförandeskapet i rådet i juli, är angeläget att slutföra ärendet. Samtidigt medger han att det troligen kommer att finnas många oenigheter mellan MEP:er och medlemsländer som måste lösas. Så en slutlig tidplan är osäker. (Och att förutsäga hur EU:s slutna trilogförhandlingar kommer att gå är aldrig en exakt vetenskap.)
En sak är tydlig: Ansträngningarna är tidsenliga – med tanke på hur hypen kring AI har ökat de senaste månaderna, drivet av framsteg inom kraftfulla generativa AI-verktyg, som DALL-E och ChatGPT.
Spänningen kring ökningen av användningen av generativa AI-verktyg som låter vem som helst producera verk som skrivna kompositioner eller visuell konst bara genom att ange några enkla instruktioner har dämpats av växande oro över de potentiella snabbt växande negativa effekterna som kan följa med de hyllade produktivitetsfördelarna.
EU-lagstiftare har hamnat i centrum för debatten – och kanske fått mer global uppmärksamhet än vanligt – eftersom de står inför den knepiga uppgiften att avgöra hur EU:s kommande AI-regler bör anpassas för att gälla för virala generativa AI-system.
Kommissionens ursprungliga utkast föreslog att reglera artificiell intelligens genom att kategorisera tillämpningar i olika riskklasser. Enligt denna plan skulle de flesta AI-applikationer klassificeras som låg risk – vilket innebär att de undgår lagliga krav. Å andra sidan skulle ett fåtal oacceptabla riskanvändningar vara helt förbjudna (som Kina-inspirerad social kreditbedömning). Sedan skulle reglerna i ramverket tillämpas på en tredje kategori av applikationer där det finns tydliga potentiella säkerhetsrisker (och/eller risker för grundläggande rättigheter) som ändå anses hanterbara.
AI-lagen innehåller en lista över ”högrisk”-kategorier som omfattar användning av AI inom områden som brottsbekämpning, rättvisa, utbildning, sysselsättning och hälso- och sjukvård, där applikationer som omfattas skulle vara föremål för en efterlevnadsregim före och efter marknadsföring, med en rad skyldigheter inom områden som datakvalitet och -styrning, samt åtgärder mot diskriminering – med möjlighet till verkställighet (och sanktioner) vid överträdelser av kraven.
Förslaget innehöll också en annan mellankategori som gäller tekniker som chattbots och deepfakes – AI-drivna verktyg som väcker vissa farhågor men som enligt kommissionen inte utgör lika
höga riskscenarier som de högriskapplikationerna. Sådana applikationer skulle inte omfattas av hela spektrumet av efterlevnadskrav i utkastet, men lagen skulle ändå kräva transparens som inte krävs för lågriskapplikationer.
Att vara först med att utforma lagar för ett så snabbt utvecklande och banbrytande teknikområde innebar att EU arbetade med AI-lagen långt innan hypen kring generativ AI blev mainstream. Och även om blockets lagstiftare rörde sig snabbt i viss mening, är den samarbetsprocess som krävs för att besluta lagar ofta ganska långsam. Så det visar sig att två år efter det första utkastet är exakta parametrar för AI-lagstiftningen fortfarande under bearbetning.
EU:s lagstiftare i parlamentet och rådet har makten att revidera utkastet genom att föreslå och förhandla fram ändringar. Så det finns en klar möjlighet för blocket att ta itu med kryphål kring generativ AI utan att behöva vänta på att ytterligare lagstiftning föreslås längre fram, vilket skulle medföra längre fördröjning.
Trots det kommer sannolikt EU:s AI-lag inte att träda i kraft före 2025 – eller ännu senare, beroende på om lagstiftarna beslutar att ge apputvecklare ett eller två år innan verkställighet inträder. (Det är en annan punkt för debatt bland MEP:er, enligt Tudorache.)
Han betonar att det kommer att vara viktigt att ge företagen tillräckligt med tid att förbereda sig för att följa vad han kallar ”en omfattande och genomgripande reglering”. Han understryker också behovet av att ge medlemsländerna tid att förbereda sig för att genomdriva reglerna kring sådana komplexa teknologier och tillägger: ”Jag tror inte att alla medlemsländer är redo att agera som reglerare. De behöver själva tid att bygga upp expertis, hitta expertis och övertyga experter att arbeta för den offentliga sektorn.
”Annars kommer det att bli en sådan klyfta mellan branschens verklighet, implementeringens verklighet och regleraren, och du kommer inte att kunna tvinga samman de två världarna. Och det vill vi inte heller. Så jag tror att alla behöver den här tidsmarginalen.”
MEP:er söker också ändra utkastet till AI-lagen på andra sätt – inklusive att föreslå ett centraliserat verkställande inslag som agerar som en slags backstop för nationella myndigheter samt att föreslå ytterligare förbjudna användningsfall (som förutsägande polisarbete, vilket är ett område där rådet sannolikt kan komma att motsätta sig.
”Vi ändrar grundläggande styrningen från det som fanns i kommissionens text och även det som finns i rådets text”, säger Tudorache om verkställningsaspekten. ”Vi föreslår en mycket starkare roll för det vi kallar AI-kontoret. Det inkluderar möjligheten till gemensamma utredningar. Så vi försöker ge så skarpa tänder som möjligt. Och undvika silos. Vi vill undvika effekten av 27 olika jurisdiktioner [dvs fragmenterad verkställighet och forumshopping för att undvika verkställighet].”
EU:s tillvägagångssätt för att reglera AI bygger på hur man historiskt har hanterat produktskador. Detta är uppenbart en utmaning med tanke på hur formbara AI-teknologier är och den längd/komplexitet som ”AI-värdekedjan” innebär – det vill säga hur många enheter som kan vara involverade i utvecklingen, iterationen, anpassningen och implementeringen av AI-modeller. Att avgöra ansvar längs den kedjan är absolut en central utmaning för lagstiftare.
Det riskbaserade tillvägagångssättet väcker också specifika frågor om hur man hanterar den särskilt virala typen av generativ AI som har blivit uppmärksammad på senare tid, eftersom dessa verktyg inte nödvändigtvis har en tydlig användning. Du kan använda ChatGPT för att genomföra forskning, generera fiktion, skriva ett best man’s-tal, skapa marknadsmaterial eller skriva texter till en enkel poplåt, till exempel – med förbehållet att det som produceras inte nödvändigtvis kommer att vara korrekt eller särskilt bra (och det kommer definitivt inte att vara originellt).
På liknande sätt kan generativa AI-verktyg för konst användas för olika ändamål: som en inspirationskälla för konstnärlig produktion, till exempel för att ge kreativa utrymme att göra sitt bästa arbete, eller för att ersätta rollen som en kvalificerad mänsklig illustratör med billigare maskinellt genererad utgång.
(Vissa hävdar också att generativa AI-teknologier är ännu mer spekulativa, att de inte är allmänna ändamål överhuvudtaget utan snarare intrinsiskt bristfälliga och oförmögna, och representerar en sammanslagning av investeringar med brutala metoder som påtvingas samhällena utan tillstånd eller samtycke i en kostsam och rättighetskränkande fisketur efter vinstbringande lösningar.)
Den centrala fråga som MEP:er försöker ta itu med är därför att se till att underliggande generativa AI-modeller, som OpenAIs GPT, inte kan undvika riskbaserad reglering helt genom att hävda att de inte har något fastställt syfte.
Användare av generativa AI-modeller kan också försöka hävda att de erbjuder en verktyg som är tillräckligt allmänt syftande för att undgå ansvar enligt den kommande lagen – om det inte finns tydlighet i regleringen om relativa ansvars- och skyldighetsförhållanden längs värdekedjan.
En uppenbarligen orättvis och dysfunktionell situation skulle vara om all reglering av risk och ansvar skulle pressas nedströms, enbart på dem som utvecklar specifika högriskapplikationer. Eftersom dessa enheter i praktiken sannolikt skulle använda generativa AI-modeller utvecklade av andra aktörer uppströms – och därmed inte skulle ha tillgång till data, vikter etc. som användes för att träna den centrala modellen – vilket skulle göra det omöjligt för dem att uppfylla kraven i AI-lagen, vare sig det gäller datakvalitet eller att minska snedvridningar.
Det fanns redan kritik mot den här aspekten av förslaget innan hypen kring generativ AI tog fart på allvar. Men hastigheten i antagandet av teknologier som ChatGPT verkar ha övertygat parlamentarikerna om att behovet av ändringar i texten för att säkerställa att generativ AI inte undgår reglering.
Och medan Tudorache inte vet om rådet kommer att ansluta sig till parlamentarikernas målsättning på detta område säger han att han har ”en känsla” av att de kommer att köpa in på det – även om de troligen kommer att försöka lägga till sina egna justeringar och tillägg till hur texten hanterar allmänna ändamål AI.
När det gäller nästa steg kommer det att vara några omröstningar i parlamentet för att anta mandatet när MEP:erna har avslutat sina diskussioner om ärendet (först två utskottsröster och sedan en plenaromröstning).
Han förutspår att den senare troligen kommer att äga rum under plenarsammanträdet i början av juni – vilket skulle möjliggöra trilogförhandlingar med rådet och en intensiv strävan att nå enighet om en text under de sex månaderna med spanskt ordförandeskap. ”Jag är faktiskt ganska säker… att vi kan slutföra det under det spanska ordförandeskapet”, tillägger han. ”De är väldigt, väldigt angelägna om att göra detta till sitt flaggskepp.”