AI og Lovverk

AI og Lovverk

En felles ramme eller hindring for vekst?

Innlegget tar for seg det framtidige samspillet mellom AI og staten, spesielt med henhold til den internasjonale arenaen. EU har lagt fram et forslag til et felles rammeverk for håndtering av AI-relaterte teknologier i form av The Artificial Intelligence Act, eller AI-acten. AI-acten dreier seg om å fastsette hvilke typer lover og reguleringer disse systemene skal være underlagt. For eksempel vil det være betydelige forskjeller mellom en selvkjørende bil som i verste fall kan medføre fare, og en robotstøvsuger. AI-acten kategoriserer AI-teknologier i tre nivåer: 'Uakseptabel risiko', 'Høyrisikoapplikasjoner', samt en tredje kategori for teknologier som ikke passer inn i de to første. EU skal vurdere den potensielle risikoen som en AI-teknologi utgjør, og avgjøre om den skal forbys, reguleres eller forblir uregulert. På samme måte som tidligere enhetlige rammeverk introdusert av EU, har også AI-acten potensial til å bli en global standard som enten blir implementert direkte eller påvirker andre land indirekte (også kjent som Brussel-effekten). Derfor er det avgjørende at EU's etiske retningslinjer i AI-acten er nøye utarbeidet, siden rammeverket vil sette standarden for regulering på globalt nivå. Land har ulike behov når det gjelder teknologi, og det er viktig å vurdere individuelle tilfeller grundig. Svekker lovverk innovasjon? Styrker det innovasjon? Hvilken påvirkning har dette på samfunnet og på individnivå?

Christine Hafskjold

Christine Hafskjold er fagdirektør i kommunal- og distriktsdepartementet med ansvar for blant annet kunstig intelligens. Hun er utdannet sivilingeniør fra Industriell økonomi og teknologiledelse (NTNU) og har en MBA i offentlig revisjon (NHH). Christine har 10 års erfaring fra næringslivet som IT-konsulent. I tillegg har hun blant annet vært ansvarlig for fagområdet IT-politikk i Teknologirådet i flere år.


Hallstein Husand

Hallstein Husand er fagdirektør og programleder for Datatilsynets regulatoriske sandkasse for ansvarlig bruk av KI. Jobber naturlig nok fortiden med aktuelle spørsmål knyttet til KI og da særlig med utfordringer og muligheter ift personopplysningsvern, rettferdighet og etikk. Han har for tiden permisjon fra sin egentlige stilling som seksjonssjef for seksjon for teknologi, sikkerhet og tilsyn i Datatilsynet. Han jobbet i Datatilsynet fra 2012 og har hatt mange forskjellige roller innfor teknologi, sikkerhet, tilsyn og prosjektledelse. Før han begynte i Datatilsynet jobbet han med digitalisering i offentlig sektor som prosjektleder, programleder og avdelingsdirektør i Altinn og med oppgaver knyttet til eID og IDporten. Husand har også jobbet som konsulent i konsulentselskapet Bouvet.


Alexander Selvikvåg Lundervold

Alexander Selvikvåg Lundervold er førsteamanuensis ved Institutt for datateknologi, elektroteknologi og realfag på Høgskulen på Vestlandet. Han er Senior Data Scientist ved Haukeland universitetssjukehus og Partner ved AkademiX AS. Hans kjerneinteresser ligger i skjæringspunktet mellom maskinlæring, kunstig intelligens, dataingeniørvitenskap og machine learning engineering. Han er spesielt engasjert i utvikling, evaluering, og implementering av AI-baserte løsninger innen medisin og helse (Medisinsk AI), og utdanning. Ved HVL deltar han i forskningsgruppen for Artificial Intelligence Engineering. Siden 2018 har han stått i spissen for aktivitetene innen Medisinsk AI ved senteret MMIV på Haukeland universitetssjukehus.


Oda Elise Nordberg

Oda Elise Nordberg er stipendiat ved Institutt for informasjons- og medievitenskap ved Universitetet i Bergen. Hennes forskningsfelt ligger innenfor Human - Computer Interaction (HCI), og hennes doktorgradsprosjekt fokuserer på teknologisk innovasjon innenfor journalistikkfeltet. Mer spesifikt, bruk av stemmestyrte grensesnitt i nyhetsformidling. I tillegg har Oda stor interesse for kunstig intelligens og etikk, og hvordan lovverk kan bidra til å regulere teknologisk utvikling for å fremme en sunn og trygg fremtid.