2020 var ikke kun året med Coronavirus. De såkaldte kunstige intelligensprogrammer, algoritmer, der f.eks. kan genkende objekter på billeder, har taget et nyt spring frem og er for alvor ved at indtage en nøglerolle i den moderne industrialisering, lægevidenskab og krigsførelse. Gigantiske summer bliver investeret, og pengemænd sidder tungt på magten over udviklingen. Det er helt centralt, at menneskers rettigheder ikke forsvinder, i takt med at moderne computersystemer indføres.
Kunstig intelligens-systemer (AI) er på nogle områder længere fremme, end folk tror, og der er udsigt til, at det bliver en meget stor del af økonomien inden for få år. Samtidig er de systemer også på vej til at blive indført på områder, hvor de ikke egner sig, f.eks. på det militære område. Også på civile områder som sagsbehandling, justitsvæsen og på hospitalerne og i undervisning. Mens systemerne har taget tigerspring, er offentlig viden og videnskaben i mellemtiden smidt på porten i profitjagten. Og står nu uden for døren til fremtiden.
- december 2020 kunne Googles virksomhed DeepMind vise, at de muligvis har fundet en løsning på et næsten umuligt regnestykke i biologien. Nemlig proteiners form, eller rettere hvordan man ud fra DNA kan se, hvordan proteiner folder sig til sin endelige form. Formen er altafgørende for proteinets funktion.
Der findes 20.000 forskellige proteiner i mennesker, der alle udfører vigtige opgaver i cellerne. Proteinerne sammensættes af en kæde, der består af små organiske molekyler. I menneskecellers proteiner findes 21 forskelige af disse byggesten, der kaldes aminosyrer. DNA indeholder ”koden” til, hvordan disse forskelige aminosyrer skal kædes sammen i en bestemt rækkefølge. Det næsten umulige regnestykke er spørgsmålet om, hvordan proteiner ender med at folde sig sammen, når en lang kæde på et par tusinde aminosyrer interagerer med hinanden.
DeepMinds løsning er en algoritme baseret på kunstig intelligens-systemer, der kan afprøve millioner af kombinationer og lære ud fra allerede kendte sammenhænge og på den måde finde frem til løsninger på komplekse problemer. Alle denne type af computersystemer baserer sig på, at der skal foreligge et allerede kendt datasæt. De skal nemlig ”trænes” empirisk med data fra virkeligheden.
Du fodrer datacentret
Når det kommer til billedgenkendelse, starter virksomhederne med at skaffe sig adgang til en stor bunke billeder, og dernæst har mennesker omhyggeligt kigget hvert enkelt billede igennem og angivet, hvad der er ansigter, og hvad der er alt muligt andet. Først når virksomhederne har et omfattende datasæt, kan de begynde at træne deres algoritmer, og først når de er trænet, kan systemerne genkende ting på helt nye billeder.
Samme princip gælder for DeepMinds algoritme, der baserer deres datasæt på flere årtiers offentlig forskning. Det er helt generelt, at data, der bruges i alle sådanne systemer, for langt hovedparten er indsamlet fra offentligheden eller fra offentlig forskning. Men når der kommer til, hvem der ejer DeepMinds algoritme, og dermed nøglerne til den fortsatte forskning, så er det pludselig privat. For det er hovedsagelig blevet overladt til de store IT-virksomheder at investere i kunstig intelligens.
Klassesamfundets ulighed overføres til AI-systemer
Når de store virksomheder og deres forretninger sætter sig tungt på et forskningsområder, så forsvinder den fri forskning til fordel for nogle profitmotiver, der er mere eller mindre gedulgte. Men kapitalens metoder åbner også for systematiske fejl i systemerne, der ikke bliver opdaget i tide. I jagten på profit er tempo alt: Den, der først kommer på markedet, kommer til dominere og skabe fremtidens monopoler inden for et område.
En af de centrale fejl, der blev begået i hastværket med udviklingen af de moderne AI-systemer, er, at selv de virksomheder, der bruger systemerne, har svært ved at forklare, hvordan de rent faktisk virker. Man har glemt at udvikle gennemsigtighed og mulighed for kontrol af mellemregninger ind i algoritmerne. Men i stedet for at stoppe op og løse denne centrale fejl så går branchen i retning af at udvikle større og mere komplekse og endnu mere uigennemskuelige systemer.
Den metode, der bruges til at indsamle de datasæt, der skal bruges til at træne algoritmerne, udgør en anden og mindst lige så stor risiko for systemerne. Den gigantiske økonomiske ulighed under kapitalismen, kønsroller og racemæssige uligheder, betyder, at alle data som udgangspunkt er korrumperet af den kapitaliske diskurs. Borgerlige statistikker og arbejderklassens erfaringer er generelt to vidt forskelige verdner. Et eksempel er statistiske data over kriminalitet, som beviseligt er farvet af politiets nidkærhed i bestemte socialt udsatte forstæder.
Men fordomme i vores samfund er langt mere udbredt og har langt større betydning. Politiets er blot den mest i øjnefaldende. I virkeligheden har danske kommuner f.eks. forsøgt at presse unge kvinder til abort, fordi de kom fra fattige kår, og de pr. automatik ikke blev regnet som dygtige forældre. Det er den type beslutninger, der ender som data, som skal træne algoritmerne.
Den blinde vinkel
En tredje fejl betyder, at algoritmerne fra amerikanske eller kinesiske IT-giganter ikke nødvendigvis kan genkende billeder fra fattige lande, der ikke er kommet med på internettet, eller kan genkende mennesker med en anden race, alder eller hudfarve end flertallet af eksisterende brugere.
I praksis betyder det, at den fattigste del af verdens befolkning måske slet ikke kan bruge den moderne teknologi til f.eks. oversættelse og tale til tekst, fordi systemerne er trænet på datasæt fra de store lande og de bedrestillede klasser, så ordvalg, dialekt og accent fra andre miljøer regnes slet ikke med. Og mindre nationer, og oprindelige folk, der har et efterslæb med tekster på deres eget sprog, har slet ikke en chance i den profitdrevne branche.
Det som algoritmerne lærer, er kort sagt baseret på alle de fejl, som verden har i dag. Dertil har de kunstige intelligenssystemer den indbyggede svaghed, at de aldrig bliver klogere end de data, de fodres med. Ensretning og standardisering er systemerne til gengæld gode til. Det bliver helt alvorligt brugt som et af argumenterne for at overlade beslutninger i sagsbehandling til computere.
Google hyrede på et tidspunkt en gruppe til at påpege racemæssige og kønsbestemte fejl i billedgenkendelse, og de skulle kigge efter fejl i datasæt og AI-modeller. Men da rapporten var færdig og konkluderede, at der var en lang række problemer, blev Google slet ikke glade, men krævede at gruppens leder og hendes kolleger trak den tilbage, og stak hende i stedet en fyreseddel.
Google er ikke enestående. Alle de store spillere som Microsoft, Facebook, Amazon og IBM har reflekteret samfundet i deres forskellige ”intelligente” computerløsninger og i praksis gjort AI-programmer til et politisk værktøj for eliten.
Hvad bør kravene være til IT-giganterne
Med gode data som udgangspunkt og velgennemtænkt computerprogrammer kan AI udbredes til sundhedsvæsnet og f.eks. være med til at stille diagnoser og udvikle ny behandling. Men som det er nu, så koncentreres magten over fremtidens IT i sundhedsvæsnet i hænderne på de virksomheder, der designer systemerne.
Hverken ansatte eller patienter får indsigt i, hvilke data beslutningsværktøjer er blevet trænet med, og hvordan programmerne når frem til deres konklusioner. Det er et mindre problem, hvis computeren kun skal spille skak, men skal den nye teknologi komme alle til gavn, skal det være fuldstændigt gennemskueligt, hvordan computerprogrammet fungerer. Det samme gælder datasæt – det skal være helt gennemsigtigt, hvad det materiale består af, og åbent for forskning.
Viden om sygdomme kan f.eks. som udgangspunkt ikke bare indsamles fra eksisterende databaser og fodres til maskinen. De vil nemlig indeholde alle klassesamfundets fejl og utilstrækkeligheder, forskelsbehandling af børn, kvinder og indvandregrupper og den fattigste del af befolkningen.
Uden uafhængig, kritisk forskning har private virksomheder fået lov til at løbe afsted med deres overbegejstrede salgstaler. Nogle forsøger med et næsten nyreligiøst sprogbrug at sælge computerprogrammer, som var de overmenneskelige.
I hele verden er der kommet et alt for tæt samspil mellem industrien og universiteterne. Mange forskningsinstitutioner er direkte afhængige af private midler. Private og offentligt ansatte mødes til konferencer og udgiver fælles rapporter. Og nogle forskere bijobber så meget i det private, at det slår ud i åbenlyse interessekonflikter mellem privatkapitalistiske profitinteresser og de samfundsmæssige interesser. Dette er en del af en række tendenser under kapitalismen, der udvisker grænsen mellem fri akademisk forskning og virksomhedernes profitmotiver og kapitalens spekulative råddenskab.
Beskyttelse og finansiering af fri og offentlig grundvidenskab og forskning og udrensning af de private aktører er kun en del af problemet. Lige så vigtigt er det at få adgang til den private sektors teknologier og datacentre, der i øjeblikket er skjult bag dogmet om virksomhedshemmeligheder.
Naturligvis ønsker de magtfulde IT-giganter ikke frivilligt at åbne dørene. De tjener deres penge ved at holde viden hemmelig, selvom deres valgsprog er at give informationerne fri. Men offentlig viden og indsigt er helt afgørende for en oplyst diskussion om regulering af kunstig intelligens og automatiserede beslutningssystemer.
Hvem skal bestemme, hvordan software skal reguleres?
80 internationale industristandarder kæmper i øjeblikket om retten til at definere regulering af AI-systemer. Det er mere eller mindre håbløst at finde hoved eller hale i. Og de fleste ønsker, at virksomhederne skal beholde retten til at holde data hemmelige, og regulere sig selv ud fra nogle få moralske retningslinjer.
Det har helt åbenlyst ikke virket særligt godt indtil nu. Man skal huske, at de systemer ikke længere blot handler om at finde et link i en søgemaskine eller sælge ragelse, holdninger og underholdning. IT-giganterne har monopoliseret en ekstrem rigdom, magt og viden og har monopoliseret nyhedsformidling. Stadig lader de store virksomheder, som om de blot er uskyldige programmører, der kommer med fred og kærlighed. I praksis er grundlaget for deres ufattelige rigdomme, at de har skabt det moderne overvågningssamfund.
Løsningen er i stedet at tage rettighederne alvorligt. Når IT-systemer sniger sig ind i sundhedsvæsnet, skal det være helt gennemsigtigt og videnskabeligt gennemtestet, hvordan det er programmeret, og hvordan det når frem til beslutningerne. Så der kan gives et samtykke til behandling på et oplyst grundlag.
De store IT-giganter forsøger sig ofte med en gammel frase om, at de blot giver folk, hvad de ønsker sig, og på den måde forsøger de at tegne et billede af, at det er de enkelte individers egen fejl, at de ikke lige ser det komplette nyhedsbillede, eller kommer til at bruge timer på internettet på at surfe rundt på meningsløse underholdningssider.
Der findes en parallel i historien om tobaksfirmaerne, der også gælder i dag: Cigaretter var aldrig ”bare svaret på, hvad folk ønskede”, der var aldrig bare et tilbud om at kunne ryge. Tobaksfabrikkerne fyldte cigaretterne med giftig afhængighedsskabende kemi, reklamerne buldrede afsted, og alle helte på film var tilfældigvis storrygere. Diverse fupforskning i sundhed blev solgt til politikerne sammen med fine middage og store kampagnebidrag.
De store virksomheder bruger konsekvent deres magt til at fordreje sandheden, og de vil aldrig nogensinde holde op. Uanset hvor mange forbedring og reguleringer der bliver kæmpet igennem, vil det altid blot være midlertidige sejre. Så længe det kapitalistiske system og de private magtmonopoler består, vil industrigiganter stræbe efter at monopoliserer viden og magt.
Kun ved en socialistisk revolution kan verden slippe ud af profitmotivets diskurs og lægge fremtiden i hænderne på befolkningen.
December 2020