Digitalisering og Etik

– 10. juli 2018

 

Af KLAVS BIRKHOLM – offentliggjort i Kristeligt Dagblad  30.maj 2018

DE SENESTE måneder har vi været vidner til en stigende offentlig opmærksomhed omkring digitaliseringens etiske skyggesider. For én, som skrev sin første kritik af Facebook’s trussel mod demokratiet 21.december 2009 her på stedet [1], og som siden har bidraget med snesevis af advarsler mod den datadrevne overvågningsøkonomi, er det selvsagt dybt tilfredsstillende at opleve en sådan vågnende bevidsthed.

Der er dog lang vej endnu, før vi til fulde forstår hvor omfattende en ændring af hele samfundsordenen, de eksplosivt voksende digitaliseringstiltag er i færd med at afstedkomme. Mange tror stadig, at det hele drejer sig om databeskyttelse og cybersikkerhed. Tilsvarende tror nogle, at mere åbenhed og “transparens” vil løse de fleste problemer.

Men databeskyttelse og transparens er kun den mindste del af problemet. Langt mere alvorligt er det, at big data er blevet råstof for millioner af computeralgoritmer, som diskret styrer, hvad vi mennesker foretager os med hinanden, både i det private rum, på jobbet og i det offentlige rum. Det er en styring, der i ganske små ryk fratager os en række frie valg og frihedsgrader, som samfundet ellers dyrt har tilkæmpet.

Hvorfor tager vi så ikke mere på vej, de fleste af os? Fordi vi til gengæld får øget bekvemmelighed i rigt mål.

I en ny bog, som jeg har redigeret sammen med it-konsulenten Niels Frølich, leverer nogle af verdens førende eksperter deres analyser af, hvordan de skjulte algoritmer styrer en række forskellige livsområder – ikke bare Facebook, men eksempelvis også det danske sundhedsvæsen; vores Google-søgninger; processen for ansættelse og afskedigelse af skolelærere i USA; “tingenes internet” i de såkaldt smarte byer kloden rundt; danske mediers kandidattest op til politiske valg; ansigtsgenkendelse i reklameindustrien; den statslige og kommunale sagsbehandling i Danmark; og – måske værst af alt – den politiske beslutningsproces.

FOR AT UNDGÅ misforståelser er det værd at understrege, at der findes masser af gode algoritmer, som helt grundlæggende er til gavn for samfundsfællesskabet. Det gælder bl.a. inden for trafikstyring, transportregulering, 3D-scanning, klimamodeller og naturligvis masser af automatiserede produktionsprocesser.

Men der er rigtignok også mange eksempler på det modsatte, og dem gælder det om at identificere.

En af de ting, der kan gøre algoritmer ondsindede, er deres feedback i lukkede kredsløb. For eksemplets skyld kan læseren forestille sig, at politiets computersystemer til “foregribende politiarbejde” identificerede en række velhaverkvarterer som de områder, man især bør rykke ud til og foretage identitetscheck, husundersøgelser, “afskrækkende anholdelser” m.v. Hvis så beboere i Rungsted eller Hørsholm sætter sig til modværge mod kropsvisitationer, kan systemet allerede her notere en succes: “uvilje mod ordensmagten, vi har valgt det rigtige område”. Hvis politiet yderligere kan registrere et forhøjet antal hastighedsovertrædelser på villavejene: endnu en succes. Og hvis det lykkes at beslaglægge et par computere med børneporno eller dokumentation for skuffeselskaber i skattely, er det helt sikkert: Algoritmen havde ret! Vi skal have endnu mere politi og overvågning i netop disse kvarterer!

Sjovt nok peger de eksisterende systemer for forebyggende politiindsats modsat på de fattigste og mest etnisk blandede kvarterer. Også her er den positive tilbagemelding om, at man har valgt rigtigt, på forhånd sikret. Systemet er på den måde “inappellabelt”, som matematikeren Cathy O’Neil formulerer det.

En afgørende grund til, at den slags mekanismer kan virke, er hvad jeg kalder algoritmens autoritet. Selve navnet lyder som noget matematisk, objektivt. Oprindelig var en algoritme også bare en regneforskrift. Men i dag er computeralgoritmen et styreprogram, præget af programmørens fordomme og mangel på samme. Programmøren besidder en magt, som er skjult for omverdenen og alt for ofte også skjult for ham selv, konstaterer IT-specialisten Aske Mottelson.

MIDT I DENNE, ofte lovlig forvirrede debat høres nu fra flere sider forslag om oprettelse af et IT-etisk råd. En eller anden form for uvildig institution, der kan sortere skidt fra kanel og udpege de virkelige etiske dilemmaer.

Men hvordan og i hvilken form? På Akademikernes og IT-branchens digitaletiske “hackathon” 18.maj lød der både et forslag om at udvide mandatet for det nuværende Etiske Råd, et forslag om oprettelse af et nyt “Digitaletisk Råd” af lignende struktur, og et forslag om et rent ekspertråd.

Det sidste er en rigtig dårlig idé. Når det nuværende Etiske Råd, der blev oprettet ved lov i 1987, udviklede sig til en så stor succes, at det ligefrem kom til at danne forbillede i andre europæiske lande, skyldes det ikke mindst understregningen af, at Rådet skulle være en lægmandsforsamling, der hverken politisk eller økonomisk var viklet ind i de nye bioetiske dilemmaer. Den initiativtagende sundhedsminister, Britta Schall Holberg forstod til fulde, at ingen kan være ekspert i etik. Rådet skulle fremdrage etiske dilemmaer, oplyse og rådgive – aldrig træffe beslutninger. Det betød, at Rådet kunne lægge flere forskellige synspunkter frem og overlade den endelige beslutning til folkestyret.

Jeg sad selv otte år i Det Etiske Råd (2003-11) og var ofte dybt frustreret over, at politikerne i stigende grad fralagde sig ansvaret og hverken traf den ene eller den anden beslutning. Men havde Rådet bestået af lutter medicinske professorer og filosoffer, peger erfaringen fra andre lande på, at det i sidste ende bare ville have blåstemplet alle nye teknologier indenfor genetikken og befrugtningsindustrien.

Det ANDET SPØRGSMÅL, hvorvidt et IT-etisk Råd bør være selvstændigt eller en del af det allerede eksisterende Råd, er lidt vanskeligere at afgøre.

Fordelen ved at lægge opgaven ind under det nuværende Råd er, at dét besidder en betydelig demokratisk autoritet (som en ny tendens til partipolitiske udpegninger ganske vist er i færd med at nedbryde). Det Etiske Råds tradition for uvildighed og seriøsitet har skabt tillid til det i store dele af den danske befolkning.

Ulempen er til gengæld, at Rådets sagsfelt kan blive for omfattende til, at medlemskredsen kan håndtere det og Rådets sekretariat kan gabe over det. En vis, elementær sagkundskab om de problemer, der arbejdes med, er ubetinget nødvendig i det professionelle sekretariat.

Endelig kan man jo spørge, om de bioetiske og digitaliserings­etiske dilemmaer overhovedet kan sammenlignes i omfang og i dybde? Lige så revolutionære, teknologierne til kunstig befrugtning, kloning og genetisk manipulation fra starten fremtrådte i den offentlige debat, lige så potentielt omvæltende er de digitale teknologier – de arbejder bare langt mere skjult.

Selv om både medicinalindustri, fertilitetsklinikker og genetiske forskningsmiljøer har klare interesser i, at deres respektive forretninger ikke bremses af for mange etiske betænkeligheder, er deres magt for intet at regne mod de globale Hi-Tech-virksomheder, der ikke kan få fart nok på digitalisering og disruption. For dem handler det på verdensplan om milliarder og atter milliarder.

I skyggen af sådanne økonomiske interesser får etiske overvejelser kun ringe ilt, og man kan frygte, at det også vil sætte sit præg på udformningen af et nyt IT-etisk råd.

Omvendt kan man selvfølgelig også håbe, at det ikke vil ske.

 

Klavs Birkholm og Niels Frølich (red.), De skjulte algoritmer. Teknoantropologiske perspektiver. DJØF-forlag, 272 sider. – Med bidrag af bl.a. Carole Cadwalladr, Cathy O’Neil, Aske Mottelson, Evgeny Morozov og Hanne Marie Motzfeldt.

——-

[1] Klavs Birkholm, ”Udleveret til pladder”, 21. december 2009.