tirsdag 30. mai 2023

Hvordan skal kunstig intelligens reguleres?



I en verden som forandres raskt av AI-teknologi, er det et viktig spørsmål som trenger et svar: Hvem skal regulere AI og hvordan? Dette innlegget tar for seg de forskjellige tilnærmingene som er foreslått av sentrale aktører som EU, OpenAI, Det hvite hus og Kina. Hvordan kunstig intelligens skal reguleres er en global utfordring.

Av Martin Johannessen / Illustrasjon: Pixabay

En gruppe ledende teknologieksperter fra hele verden har advart om at teknologi basert på kunstig intelligens bør betraktes som en samfunnsrisiko og prioriteres på samme nivå som pandemier og atomkrig.

Uttalelsen, undertegnet av hundrevis av ledere og akademikere, ble utgitt av Center for AI Safety i slutten av mai (2023) i lys av økende bekymringer rundt regulering og risikoer teknologien utgjør for menneskeheten.

"Å redusere risikoen for utryddelse fra AI bør være en global prioritet sammen med andre samfunnsmessige risikoer som pandemier og atomkrig," sier uttalelsen. Underskriverne inkluderte administrerende direktører i Google's DeepMind, OpenAI, og AI-startupen Anthropic.

Kunstig intelligens må reguleres på en eller annen måte, men av hvem, og hvordan skal det formuleres? AI skaper bølger over hele verden. Men hvem skal regulere dens utbredelse og bruk? Fra EUs foreslåtte lovgivning til OpenAIs demokratiske tilnærming, Det hvite hus sin satsning på ansvarlig AI-utvikling og Kinas strenge reguleringer, er det et globalt kappløp for å forme framtiden til AI.

Hvem styrer kursen for kunstig intelligens?
Mens bedrifter og myndigheter haster med å forstå konsekvensene av nye, kraftfulle AI-systemer og AI-verktøy, kappes regjeringer rundt om i verden om å ta ledelsen på regulering.

Bedriftsledere bør fokusere mer på hvem som sannsynligvis vil vinne dette kappløpet, snarere enn spørsmålene om hvordan eller til og med når AI vil bli regulert.

Om det er Kongressen, EU-kommisjonen, Kina, eller til og med amerikanske stater eller domstoler som tar ledelsen, vil det bestemme både farten og retningen for AIs transformasjon av den globale økonomien.

Det kan potensielt beskytte noen næringer eller begrense evnen til alle selskaper til å bruke teknologien til å kommunisere direkte med forbrukere.

Med lanseringen av ChatGPT, gikk vi rett og slett inn i en ny epoke med kunstig intelligens. Nå har myndighetene plutselig fått dårlig tid med å prøve å følge utviklingen og finne ut hvordan i all verden de skal takle denne teknologien.

OpenAI: Verdensregjering for kunstig intelligens
Akkurat som vi alle kan bidra til en Wikipedia-artikkel, ser OpenAI på måter å inkludere så mange stemmer som mulig i beslutningsprosessen rundt hvordan deres AI fungerer.

OpenAI stopper ikke ved å inkludere - de snakker om at hele verden skal gå sammen for å gjøre AI trygg. Det er som om de ser for seg en verdensregjering for kunstig intelligens - noe som viser at de tar innvirkningene AI kan ha på fremtiden på alvor.

Åpenhet og demokratisk styring av teknologisk utvikling står sentralt i dette arbeidet. Alle skal ha en stemme når det gjelder hvordan kunstig intelligens utformes og anvendes (aka medvirkning). Ulike perspektiver er viktig for å sikre at teknologien som utvikles gagner så mange som mulig og unngår potensielle skjevheter eller urettferdige utfall.

OpenAI ser potensielle farer og utfordringer med utvikling og bruk av avansert AI, og de mener det er essensielt at vi tar et kollektivt ansvar for å adressere disse. De ser for seg en fremtid der internasjonale samarbeid og reguleringsorganer jobber sammen for å sikre at AI utvikles på en sikker og etisk måte.

EU: Overregulering eller nødvendig forsiktighet?
Midt opp i det hele har vi EU. De er i full gang med å meisle ut et slags "superforslag" for å regulere kunstig intelligens, også kjent som AI Act (AIA). Det har allerede møtt kraftig kritikk fra en av de sentrale AI-aktørene, skriver Time.

– Utkastet av EU AI Act vil være overregulering, men vi har hørt at det skal tones ned, sier Sam Altman.

Han er ikke fornøyd med EUs foreløpige reguleringsplaner, men avviser at OpenAI vil trekke seg ut av Europa. Det var det vel ingen som ventet heller.

Sam Altman er for tiden på en turné i Europa, hvor han har møtt flere av EU-representantene som jobber med å utforme de nye reguleringene. I den forbindelse deltok han nylig i en paneldebatt ved University College London i Storbritannia.

– Enten vil vi være i stand til å løse disse kravene, eller ikke. Dersom vi kan etterkomme dem, vil vi gjøre det, og hvis ikke vil vi avslutte virksomheten. Vi vil forsøke, men det er tekniske begrensninger på hva som er mulig, sa OpenAI-sjefen under diskusjonen.

Per i dag finnes det ikke et lovverk som forhindrer misbruk av data og informasjon, eller en klar strategi for å beskytte forbrukere. Det er dette EU-kommisjonen søker å gjøre noe med, gjennom AI Act.

I kjernen av EU AU Act finner vi en risikobasert tilnærming. Dette innebærer at hvor strengt noe regulerers beror på risikoen. Forordningen definerer fire nivåer for risiko:
  • Uakseptabel risiko
  • Høy risiko
  • Begrenset risiko
  • Minimal eller ingen risiko


Det hvite hus: Fokus på AI-forskning og regulering
Det hvite hus har gjort ansvarlig AI-utvikling til et fokus for denne administrasjonen i de siste månedene, ved å utgi en Blueprint AI Bill of Rights, utvikle et risikostyringsrammeverk, forplikte seg til $140 millioner for å grunnlegge syv nye nasjonale akademier dedikert til AI-forskning, og veie inn på hvordan private foretak utnytter teknologien.

Det hvite hus tar skritt mot ansvarlig utvikling av AI. De oppdaterer den nasjonale AI R&D strategiske planen og ber om offentlige innspill på kritiske AI-problemer. Den nye planen fokuserer på å fremme ansvarlig innovasjon som tjener publikum uten å kompromittere sikkerhet og demokratiske verdier. Oppdateringen legger til en niende strategi for internasjonalt samarbeid innen AI-forskning.

OSTP inviterer offentlighetens meninger som en del av denne innsatsen, med svar som må leveres innen kl. 17:00 ET den 7. juli 2023. Utdanningsdepartementet har også utgitt en rapport om virkningene og risikoene av AI for studenter.

Dette økte fokuset på ansvarlig AI-utvikling kan føre til flere reguleringer og politiske endringer i fremtiden. I tillegg kan internasjonalt samarbeid bidra til å takle overordnede problemer og potensielle skjevheter i AI mer effektivt på tvers av grenser.

Kina: Multifasetterte tilnærming til AI-regulering
Ifølge en ny Cullen International Global Trends rapport, har Kina regulert kunstig intelligens på forskjellige fronter. I sin AI-politikk og reguleringer, forfølger Kina vanligvis minst ett av følgende mål:

1. sikre sikkerheten ved bruk av AI, inkludert statens interesser
2. regulere e-handel, med hensyn til både forretning-til-forbruker (B2C), og forretning-til-forretning (B2B) transaksjonsaktiviteter
3. beskytte enkeltpersoners personvern

Blant de mest nylige reguleringene på AI i Kina, dekker noen spesifikke funksjonaliteter muliggjort av AI-teknologi. Målet er å adressere visse risikoer mens de fremmer en "ønskelig" bruk, av mennesker og av teknologien.

For eksempel vedtok Kina nylig nye regler for anbefalinger drevet av algoritmer. Det har også utstedt spesifikke regler og standarder som gjelder for tilkoblede og automatiserte kjøretøy (CAVs).

Kina foreslår nå også å regulere bruken av dyp synteseteknologi (teknologi som kan generere eller reprodusere data, som bilder, videoer, eller tekst, på en veldig realistisk måte). Denne teknologien brukes for tiden i aktiviteter som automatisk generering av artikler, oppretting av dype falske bilder eller videoer, eller konvertering av tekst til lyd.


Tre perspektiver på AI-regulering
Grunnleggerne av OpenAI sier at en internasjonal autoritet er nødvendig for å regulere kunstig intelligens i selskapets siste oppfordring til en regelbok for å styre den raskt voksende teknologien.

Sam Altman har tidligere etterlyst behovet for å regulere AI, og oppfordret lovgivere til å gjøre det på en senatshøring i mai. I et blogginnlegg, medforfattet med OpenAIs president og medgrunnlegger Greg Brockman, og sjefsforsker Ilya Sutskever, skrev Altman at AI kan bli smartere enn menneskelige eksperter innen de neste 10 årene.

Altman, Brockman, og Sutskever argumenterer for at AI er på vei til å bli den mest kraftfulle teknologien menneskene noensinne har skapt. Grunnleggerne av OpenAI oppfordrer til samarbeid blant utviklere av kunstig intelligens, og skriver at "enkeltforetak bør holdes til en ekstremt høy standard for ansvarlig opptreden."

De foreslår et tilsynsorgan likt Det internasjonale atomenergibyrået, som skulle overvåke teknologien og ha myndighet til å sjekke eller revidere selskaper som utvikler AI.

"Det ville være viktig at et slikt byrå fokuserer på å redusere eksistensiell risiko og ikke problemer som bør overlates til individuelle land, slik som å definere hva en AI skal få lov til å si," skrev de.

OpenAI sa også at mennesker fra hele verden må demokratisk bestemme hvordan AI skal operere: "Vi vet ennå ikke hvordan vi skal utforme en slik mekanisme, men vi planlegger å eksperimentere med utviklingen av den."

Google CEO Sundar Pichai skrev nylig i Financial Times at mer viktig enn kappløpet for å utvikle AI-teknologi, er "kappløpet for å bygge AI ansvarlig". Pichai sa at med AI "på et vendepunkt", er det viktig å ikke bare regulere industrien, men sørge for at den reguleres ordentlig.

For å gjøre det bør regjeringene utvikle politiske rammeverk som både forutser mulige skader fra teknologien og også tar en fremtidsrettet tilnærming til fordelene deres. Han sa at fortsatt AI-forskning ville være nødvendig ettersom teknologien utvikler seg, og oppfordret til et partnerskap mellom regjeringene i USA og Europa.

Tidligere Google CEO Eric Schmidt har en annen tone enn Pichai og Altman. Da han snakket til NBCs Meet the Press-program argumenterte Schmidt for at industrien skulle selvregulere, og argumenterte for at ingen utenfor sektoren var godt nok kjent med hvordan teknologien fungerer til å administrere den. "Min bekymring med enhver form for for tidlig regulering, spesielt fra regjeringen, er at den alltid er skrevet på en restriktiv måte," sa han.

I stedet ønsker Schmidt å se en "enighet blant nøkkelspillerne om at vi ikke skal ha et kappløp mot bunnen." Problemet, sa han, er å få industrien til å bli enig om hvilke retningslinjer som skal installeres for å unngå de "verste atferdene" til AI - og global enighet om hva disse atferdene er.

Balanseringen mellom muligheter og ansvar
Som vi navigerer i det ukjente farvannet av kunstig intelligens, er det avgjørende å definere de globale reglene for AI. Fra OpenAIs visjon om en verdensregjering for AI, til EUs strengere lovverk, Det hvite hus sin fremming av ansvarlig AI-utvikling, og Kinas målrettede reguleringer, er det klart at veien framover vil bli bestemt av et komplekst sett av faktorer. Det som er klart, er at det vil kreve et internasjonalt samarbeid for å sikre at AI blir en teknologi som er til fordel for alle.

I dette landskapet er hovedspørsmålet ikke lenger "hvis" AI skal reguleres, men "hvordan" og "av hvem". Hver aktør bringer unike perspektiver og prioriteringer til bordet - OpenAI insisterer på inkluderende og demokratisk styring, EU fokuserer på et strengt lovverk som adresserer potensielle trusler, Det hvite hus fremmer ansvarlig innovasjon, og Kina beskytter statens interesser og borgernes personvern (?). Forståelse og sammenstilling av disse ulike synspunktene vil være en enorm utfordring, men det er en utfordring som er avgjørende for en rettferdig og bærekraftig fremtid for AI.

Det er ingen enkel oppgave å balansere behovet for regulering med de uendelige mulighetene som AI bringer. Men om vi skal være i stand til å møte de formidable utfordringene og mulighetene som denne teknologien presenterer, er det viktig at vi ikke glemmer målet: å sikre at AI blir utviklet og anvendt på en måte som respekterer menneskelige rettigheter, fremmer inkludering og forhindrer misbruk. Vi er på kanten av en ny æra, og tiden er inne for å formulere en global tilnærming til AI-regulering som er verdig tiden vi lever i.

AI 
som er bra for menneskeheten
Prioriter etiske hensyn: Al bør utvikles med et sett etiske prinsipper som prioriterer menneskelig velvære, sikkerhet og personvern.

Fremme samarbeid: Oppmuntre til samarbeid mellom forskere, praktikere, beslutningstakere og andre interessenter for å utvikle Al som er i tråd med samfunnsmål.

Sikre åpenhet: Sikre åpenheten til Al-systemer ved å gjøre indre funksjoner synlige for brukere og regulatorer.

Oppmuntre til mangfold i utviklingsteam: Oppmuntre til mangfoldige team for å jobbe med å utvikle Al-systemer slik at de gjenspeiler verdiene og behovene til samfunnet for øvrig.

Fremme utdanning om Al: Lær folk om evnene og begrensningene til Al slik at de kan ta informerte beslutninger om bruken av det.

Invester i forskning for samfunnsnytte: Støtt forskning på utvikling av samfunnsnyttige applikasjoner for kunstig intelligens-teknologi.

Lage reguleringsrammer: Etablere regulatoriske rammer som fremmer ansvarlig bruk av kunstig intelligensteknologi samtidig som det oppmuntrer til innovasjon og vekst på dette feltet.

Fremme offentlig-private partnerskap: Oppmuntre offentlig-private partnerskap for å bidra til å sikre bred tilgang til fordelene fra fremskritt innen kunstig intelligens-teknologi, samtidig som de sikrer at ansvarlig utviklingspraksis følges

Vis et konsistent mønster som gjenspeiler hva det å være menneske handler om: oppfør deg slik du ønsker å se maskinene oppføre seg.



Disclaimer: Alle oversettelser er gjort med støtte fra ChatGPT-4

Ingen kommentarer:

Legg inn en kommentar

5 spørsmål om innføring av KI i skolen

Står du foran et arbeid med å innføre KI-verktøy på din skole? Da kan det være nyttig å stille seg noen viktige spørsmål før du setter i gan...