Analys: Collective Societal Risks: A Blind Spot in AI Governance

AI inte bara verkar inom marknader – den omformar i grunden hur de fungerar.

Heidi Lund Utredare

AI omformar marknader och beteenden. Den här analysen visar hur kollektiva samhällsrisker faller utanför EU:s regelverk och skapar en blind fläck med konsekvenser för konkurrens och handel.

Heidi Lund, vad är analysens viktigaste bidrag till den pågående debatten om AI-styrning i EU?

Även om EU:s regelverk för säker AI är bland de mest utvecklade i världen fokuserar de främst på tekniska risker, olagligt innehåll och individuell skada. Analysen visar att en viktig typ av risk saknas i modellen: kumulativa kollektiva samhälleliga risker av lagliga AI-system.

Analysen identifierar tre sammanlänkade riskdimensioner där dessa risker uppstår: informationsrelaterade, kognitiva och beteenderelaterade risker. Den kopplar mer abstrakta samhälleliga farhågor om AI till handelsreglering och visar hur de påverkar marknader, konkurrens och internationell handel. Analysen förskjuter därmed debatten från “Är AI säkert?” till frågan om hur AI omformar samhället i stor skala, inklusive marknader och förutsättningarna för internationell handel.

Analysen lyfter fram en ”regleringsmässig blind fläck”. Vad innebär det?

AI-system kan påverka beteenden och marknader utan att leda till regulatoriska ingripanden. Befintliga regelverk träder huvudsakligen in när något är olagligt eller orsakar tydlig skada för den enskilde. Samtidigt är många AI-drivna effekter lagliga och uppstår genom designval, som rekommendationer, rangordning och beteendepåverkan (nudging). Över tid, genom skala och upprepad exponering, kan dessa ha en betydande påverkan på beteenden och marknader.

Varför är kollektiva samhälleliga risker svåra att fånga i dagens EU-regelverk?

Dessa risker utmanar den grundläggande logiken i EU:s reglering, som fokuserar på individuell skada, identifierbara händelser och tydliga orsakssamband. AI-drivna kollektiva effekter verkar på populationsnivå. De utvecklas gradvis och är kumulativa och diffusa. Detta gör det svårt att koppla dem till en specifik aktör eller en rättslig överträdelse. Andra faktorer begränsar också möjligheterna till ingripande, däribland svårigheter att definiera beteenderelaterad skada, fragmenterat ansvar samt bredare rättsliga och politiska begränsningar.

Hur påverkar AI-driven beteendepåverkan konkurrens och internationell handel?

AI förskjuter konkurrensen från pris och kvalitet till kontroll över uppmärksamhet, information och beteenden. Genom personalisering, rangordning och beteendepåverkan kan företag forma efterfrågan, förstärka informationsövertag och höja barriärer för nya aktörer. Plattformar fungerar i allt högre grad som grindvakter för synlighet.

I internationell handel kan algoritmiska system fungera som faktiska icke-tariffära handelshinder. Tillträde till marknader blir därmed i allt större utsträckning beroende av algoritmisk exponering. Den globala dominansen hos AI-aktörer utanför EU kan också skapa konkurrensmässiga obalanser och strukturella beroenden. Den centrala insikten är att AI inte bara verkar på marknader – den omformar i grunden hur de fungerar.

Vilka åtgärder kan beslutsfattare vidta för att bättre hantera dessa risker inom befintliga regelverk?

Analysen föreslår inte ny lagstiftning, utan att befintliga regelverk används mer effektivt, till exempel AI-förordningen och EU:s förordning om digitala tjänster. Ett första steg är att tydligt erkänna dessa risker. Därutöver krävs skarpare tillsyn, bättre tillgång till data och bättre metoder för riskbedömning. Eftersom AI är gränsöverskridande behöver frågorna också hanteras i internationellt regulatoriskt samarbete och inom handelspolitiska diskussioner inom WTO.