Skrevet av: Solomon Hindel Kamara
Kunstig intelligens refereres ofte til som datamaskiners evne til å utføre oppgaver som vanligvis krever menneskelig intelligens, som læring, problemløsning og beslutningstaking. Dette er hva som anses å være den primære oppgaven til KI, men er KI en trussel mot barn når det kommer til å utvikle overgrepsmateriale?
Kort om kunstig intelligens (KI)
Konseptet med kunstig intelligens har røtter tilbake til begynnelsen av 1950-årene. Riktignok var det ikke før 1980- og 90-tallet at utviklingen av kunstig intelligens tok fart. Trolig skyldtes dette at tilgang til maskinlæring begynte å ta form. Teknologiske fremskritt, økt tilgjengelighet av data og mer avanserte algoritmer førte til en
stor vekst av kunstig intelligens slik vi kjenner den i dag.
KI kan anvendes på flere områder
Kunstig intelligens kan benyttes på svært mange områder. Ved å benytte KI til videoredigering, kan det produseres deepfakes. Deepfakes er en funksjon som gjør at KI kan manipulere videoer ved å erstatte ansikter eller stemmer i eksisterende videoer med andre ansikter eller stemmer. Noe som kan skape overbevisende forfalsket innhold.
Krigen mellom Russland og Ukraina har gitt oss mulighet til å se hvordan deep fakes kan anvendes for å skape falsk informasjon, og dermed anvendes til negative formål. Deepfakes kan også misbrukes til å lage falske videoer av eksempelvis barn som utnyttes. Dette kan videre brukes som et middel for utpressing av barn i sårbare situasjoner. Slike bilder viser seg å bli utnyttet av voksne, som ser muligheter for å bruke denne nye teknologien til å lage overgrepsmateriale.
Ifølge Medietilsynet utnyttes kunstig intelligens av deep fakes for å lage videoer og lydinnhold, som ikke er så lett å avsløre som falskt. Dette kan føre til desinformasjon og utfordringer med personvern. Det er derfor viktig å utvikle mottiltak for å bekjempe denne trusselen fra deepfakes.
Ettersom overgrepsmateriale med barn produsert med hjelp fra KI i stor grad kan forveksles med overgrepsmateriale der virkelige barn er involvert, fører dette til utfordringer med å kunne gjenkjenne om overgrepsmaterialet er ekte eller falskt. Deepfake er en applikasjon til kunstig intelligens som spesifikt fokuserer på å generere falske medieelementer, som kan være bakgrunner, logoer og eventuelt motiver på klær. Deepfake er en type anvendelse innen KI, men anvendes ikke med samme formål som kunstig intelligens i seg selv. Deepfakes har sitt formål med å plassere ansikt på andre kropper, gjerne i filmproduksjon, men det brukes også på samme måte for å skape falsk innhold og desinformasjon for å lure folk. Deepfake kan oppdages ved mimikk, lyd, skarpe bilder og blunking med øynene som oppstår mindre enn hos ekte mennesker.
Aktører som jobber mot seksuell utnyttelse av barn i Sverige, påpekte nylig i en kronikk i svenske Aftonbladet at det ikke er så mange som frykter misbruket av generativ kunstig intelligens (GKI), fordi bildene som genereres ikke nødvendigvis er virkelige. I de situasjonene der det er snakk om deepfake-overgrepsmateriale, benyttes eksisterende overgrepsmateriale av ekte barn til å generere nytt overgrepsmateriale. Det er urovekkende om innhold generert med bruk av deepfaketeknologi ikke oppfattes som virkelig. Det er ekte kropper og ekte ansikter som benyttes for å generere nytt innhold.
Patreon er en innholdsnettside hvor noen av brukerne utnytter KI og er med på å spre innhold med overgrepsmateriale av barn. Denne nettsiden hevder å ha totalt rundt 250 000 brukere, der prisen for å kunne se og dele innhold kun koster så lite som rundt 40 kroner etter dagens valutakurs. Dette vil si at ett generert overgrepsbilde potensielt kan deles over hele verden og bildene kan være lett tilgjengelig på internett. Det å misbruke barn på denne måten omtales av psykologspesialist Svein Øverland som grenseløs kriminalitet. De faktiske ofrene er vanskelig å identifisere og spore opp.
Når innhold deles på nettet kan det spres over landegrenser i rekordfart, og det er ikke mulig å kontrollere hvem som får tilgang og hvem som deler overgrepsmaterialet videre. Det er manglende regelverk for kunstig intelligens. I en artikkel fra NRK kommer det frem at Kripos forespeiler at denne negative trenden med at kunstig intelligens benyttes til å generere overgrepsmateriale, vil øke i takt med KI sin utvikling. Hvordan stiller Norge seg til dette? Jobbes det med konkrete tiltak som kan hindre at bilder med seksualisert innhold blir delt videre?
Kripos har utarbeidet en rapport om hva kunstig intelligens er, dens formål, anvendelse og hvordan trusselbildet kan være rettet mot barn. I denne rapporten påpekes det at generativ kunstig intelligens (GKI) er en funksjon som kan utnyttes av kriminelle, blant annet mot barn, enten det gjelder mobbing, utpressing eller andre kriminelle handlinger som faller innenfor seksuell karakter og utnyttelse. Innenfor en rekke kriminelle nettverk rekrutteres det folk digitalt gjennom chatboter. Dette er da med på å skape store utfordringer som utgjør en “en ny cyberkriminalitet”.
Vi burde være mer kritiske til kunstig intelligens
Bekymringen Kripos deler om KI og dens muligheter for å bli misbrukt, er en tydelig oppfordring om at det snarest burde komme en rekke tiltak som kan kontrollere og regulere bruken vår av KI. For dersom det er slik at den generelle oppfatningen i befolkningen utvikler seg til en holdning om at de generative seksualiserende bilder av barn ikke er ekte, peker det på en farlig trend som krever tiltak. Bildene kan være manipulerte og generert frem av forskjellige bilder og data som er nødvendig for å skape et fantasifullt bilde, der overgrepene mot barn begynner å skje. Derfor er det stort behov for at utviklingen av kunstig intelligens reguleres, spesielt KI som innebærer overgrep mot barn.
Det er viktig å påpeke at kunstig intelligens også kan benyttes til positive formål. Ny teknologi kan bidra med å løse problemer og utfordringer, og kan forenkle menneskers arbeidshverdag og hverdagsliv på flere ulike måter. Oversettelsesverktøyet Google translate benytter eksempelvis KI for å oversette tekst, tale, nettsider og bilder. I løpet av 2023 har vi også blitt introdusert for Chat GPT som er et tekstgenereringsverktøy. Ved bruk av KI kan Chat GPT blant annet benyttes til å generere tekster og forbedre tekster, som jobbsøknader og CV. Chat GPT kan også benyttes for å oppsummere informasjon og til å få hjelp til å forstå tekst, for å nevne noe. Det er mye som skjer når det gjelder utvikling av kunstig intelligens, og det kan være utfordrende å følge med på hvordan teknologien utvikler seg. Elon Musk var tidlig ute og kritiserte KI. Han påpekte at Tek-giganter som tar i bruk KI burde reguleres, inkludert hans eget selskap Tesla. Hans påstand kommer av det han så som en trussel for samfunnet dersom KI-teknologi brukes uten rammer og retningslinjer, og han påpekte at det kan resultere i at vi rett og slett mister kontrollen over utviklingen av kunstig intelligens.
Barn er en utsatt gruppe som kan bli manipulert og misbrukt ved hjelp av kunstig intelligens. Utvikling av overgrepsmateriale av barn ved bruk av KI fører til store utfordringer for politiet med å identifisere barn som blir seksuelt utnyttet og misbrukt.
Politiet rapporterer om at de bruker svært mye tid på å identifisere hvilket overgrepsmateriale som er generert av KI, og hvilket overgrepsmateriale som ikke er det. Konsekvensene av dette er fatale. Barna det gjelder vil fortsatt bli utnyttet og misbrukt, overgrepssituasjoner blir ikke avdekket og mange får ikke den hjelpen de trenger. Vi jobber ikke kun mot denne utviklingen, vi jobber også mot tiden. KI utvikler seg i rekordfart. Nylig har regjeringen kunngjort at de setter av en milliard norske kroner til forskning av KI og digital teknologi i løpet av de neste fem årene. Justis- og beredskapsminister Emilie Enger Mehl mener at strenge reguleringer av kunstig intelligens er nødvendig. Mehl har også uttalt at Norge er i samtaler med Europarådet om et rammeverk for KI i EU. Dette er et stort skritt i riktig retning i kampen mot misbruk av KI-teknologien. Det er helt nødvendig med reguleringer som vil være til hjelp for barn som blir utsatt for seksuelle overgrep ved hjelp av kunstig intelligens. Og det er helt nødvendig at vi starter nå!
Referanser:
Borgan, E. (2022. 04. mai). Ny rapport om kunstig intelligens: Truer sikkerheten vår. Forskning.no. https://forskning.no/data-kunstig-intelligens-politikk/ny-rapport-om-kunstig-intelligens-truer-sikkerheten-var/2020372
Christensen, S.B & Andreassen, T. (2023. 12. september). Justisminsteren etter AI-genererte nakenbilder av Linnea Loetvedt ble spredt på nett: Veldig alvorlig. VG.no. https://www.vg.no/rampelys/i/2BeWxr/justisministeren-etter-ai-genererte-nakenbilder-av-linnea-loetvedt-ble-spredd-paa-nett-veldig-alvorlig
Crawford, A & Smith, T. (2023. 28. juni). Illeagal trade in AI child sex abuse images exposed. BBC.com. https://www.bbc.com/news/uk-65932372
Medietilsynet (lesedato 12. september 2023). Deepfakes. https://www.medietilsynet.no/digitale-medier/skole/deepfakes/
Politiet, Kripos. (2023). Generativ kunstig intelligens og cyberkriminalitet. Teamrapport. https://www.politiet.no/globalassets/04-aktuelt-tall-og-fakta/datakriminalitet/etterretningsrapport-generativ-kunstig-intelligens---kripos.pdf
Lauritsen, E.N. (2020. 21. februar). Elon Musk advarer mot å la teknologikjempene gjøre som de vil. Forskning.no. https://forskning.no/eu-kunstig-intelligens-politikk/kunstig-intelligens-elon-musk-advarer-mot-a-la-teknologikjempene-gjore-som-de-vil/1641646
Regjeringen, (lesedato 25. august 2023). Nasjonal strategi for kunstig intelligens. https://www.regjeringen.no/no/dokumenter/nasjonal-strategi-for-kunstig-intelligens/id2685594/?ch=3#:~:text=1%20Hva%20er%20kunstig%20intelligens,%C3%A5%20oppn%C3%A5%20et%20gitt%20m%C3%A5l
Sandnes, K. (2023. 13. juli). Kunstig intelligens misbrukes til å lage seksualiserte bilder av barn. NRK. https://www.nrk.no/trondelag/kunstig-intelligens-misbrukes-til-a-lage-seksualiserte-bilder-av-barn-1.16465235
Sannsyn, (2022, 31. januar). Hva er «Kunstig intelligens» og hvorfor har det plutselig blitt så relevant? [Video]. YouTube. https://www.youtube.com/watch?v=s05_G32B0wE&ab_channel=Sannsyn
Östensson, I., Kanakaris, Z., Näslund, M., Pedersen, C.B., Nilsén, L.M., Holm, H. & Koso, S. (2023. 16. august). Barnrettighetsgrupper: AI-bilder normaliserer seksuelle overgrep mot barn. Aftonbladet. https://www.aftonbladet.se/debatt/a/4ognE6/barnrattsgrupper-ai-bilder-normaliserar-sexovergrepp-pa-barn
Coverbilde: Av Uriel SC, hentet fra unsplash.com 15. september 2023