Debatindlæg af Christine Nellemann, dekan for bæredygtighed, diversitet og internationalt samarbejde på DTU. Bragt i Frederiksborg Amts Avis og på sn.dk den 13.05.2024.
Ifølge ChatGPT er modedesigneren en kvinde, og chefen en mand. Beder man Google Translate oversætte ”min kæreste gør rent”, får man oversættelsen ”my girlfriend cleans”. Og endelig påstår Googles fremmeste kunstige intelligens Gemini, at USA blev grundlagt af en sort George Washington, en asiatisk Thomas Jefferson og en indfødt høvding.
Kunstig intelligens er ikke mere intelligent, end hvad vi 'opdrager' den til at være.
Når et hold af udviklere i Silicon Valley sidder og fodrer verdens kommende chatbots med historiske datasæt, der indeholder fortidens stereotype syn på køn, race, seksualitet og religion, vil chatbottens svar også blive derefter. I den anden grøft kan udviklere, der er overopmærksomme på bias, komme til at videregive et forvrænget billede af virkeligheden, der får chatbotten til at omskrive historien.
Input påvirker output. Og vi lever i en tid, hvor teknologier inden for kunstig intelligens i høj grad er med til at definere, hvordan vi taler om og ser på verden omkring os. Det er en undervurderet magtposition, og forskere og udviklere inden for kunstig intelligens har derfor et enormt ansvar for at 'opdrage' de næste generationer af chatbots til at agere ud fra et repræsentativt og nutidssvarende verdensbillede.
Afdækker kønsstereotyper
På DTU kunne Sara Sterlie, der er studerende inden for Kunstig Intelligens, for nylig dokumentere nødvendigheden af dette. Hun har testet, hvordan ChatGPT forholder sig til kønsstereotyper, afgrænset til mænd og kvinder.
Resultaterne er kommet bag på DTU's forskere inden for feltet, da de viser, at ChatGPT's fordeling af mænd og kvinder på forskellige jobtitler er langt mere kønsstereotyp, end fordelingen er i virkeligheden. F.eks. er kvinder ifølge ChatGPT typisk modedesignere eller sygeplejersker, mens mænd er softwareingeniører og chefer.
Derudover har ChatGPT svært ved at forbinde det mandlige pronomen med en sygeplejerske, mens den har endnu sværere ved at lade det kvindelige pronomen varetage en pilots opgave med at lande et fly.
Resultaterne foruroliger mig som ansvarlig for at få diversitet ind i forskningen i nye teknologier for mennesker. De vidner om, at der er brug for omtanke, så det enorme potentiale i kunstig intelligens ikke formørkes af computergenereret bias.
Som et af de universiteter i Europa, der markerer sig inden for forskningen i kunstig intelligens, bestræber vi os på DTU på at lade bevidstheden om bias gennemsyre vores tilgang til både forskningen, undervisningen og rekrutteringen af både medarbejdere og studerende. En høj grad af diversitet vil sænke barrieren for de nysgerrige spørgsmål og det kreative miljø.
Vi afholder bl.a. workshops og oplæg, der skal skabe inkluderende arbejdsmiljøer, som alle kan føle sig set og hørt i. Vi inviterer også kvindelige gymnasieelever til it-camps, hvor de over flere dage kan prøve kræfter med machine learning og måske være med til at ændre på den underrepræsentation af kvindelige studerende, der er inden for feltet. Endelig er vi begyndt at arbejde med blind rekruttering, når vi ansætter nye medarbejdere. Her sørger en ny teknologi for at ansøgerne kan anonymiseres, så det kun er deres kvalifikationer og erfaringer der afgør, om de får stillingen.
Værktøjer er nødvendige
Alt det til trods har vi lang vej igen. Måske når vi aldrig i mål. For ligesom hos alle andre der arbejder med machine learning og AI, er der en skævhed i repræsentationen hos dem, der forsker og udvikler teknologierne. Hvad gør vi ved det?
For at vende tilbage til DTU-studerende Sara Sterlie er hun nu i samarbejde med sine vejledere i gang med at udvikle værktøjer og metoder, der i fremtiden skal hjælpe verdens udviklere inden for kunstig intelligens til at undgå at skabe chatbots, der er biased. Det, tror jeg på, er vejen frem.
Udover at sikre en bredere repræsentation, kan vi gennem oplysning og uddannelse skabe en bevidsthed om bias hos dem, der udvikler teknologierne. Det skal sikre, at fremtidens chatbots leverer svar, der er både sandfærdige, retvisende og fair.
Hvordan vi rent faktuelt har opfattet verden for 20 år siden, kan vi ikke ændre på i dag. Men hvordan chatbots fremadrettet udlægger teksten, er muligt for os at styre. Det er en vigtig opgave, som alle der arbejder inden for feltet, er forpligtigede til at løse. Og som alle os andre bør holde øje med bliver løst.