Text

Att förebygga digital audism: Att designa AI för verklig inkludering

skriven av: Jessica Wesstrand

2025-06-23

Vi hör ofta att teknik är något neutralt och att automatisering och artificiell intelligens (AI) kan hjälpa oss att fatta beslut som är mer objektiva, effektiva och jämlika. Men vad händer om de grundantaganden som dessa system bygger på återspeglar normer som inte alla kan uppfylla? Vad händer om jämlikhet, när den bygger på att alla är lika, blir en ny form av exkludering? För första gången har vi idag ett teknologiskt verktyg som är helt centrerat kring kommunikation och språk – nämligen AI. Stora språkmodeller, som bland annat driver chattbotar, automatiska översättningar och prediktiv analys, har utvecklats av och för det skrivna och talade språket. Men vad händer när någons första språk varken är skrivet eller talat? Hur bör vi tänka kring kommunikation på arbetsplatsen när AI blir en självklar del av våra dagliga rutiner?

Digitala verktyg har haft en positiv inverkan på dövkultur. När videosamtal blev allmänt tillgängliga kunde döva plötsligt kommunicera med varandra i realtid och inte längre vara begränsade till textbaserad kommunikation eller tolkningar ansikte till ansikte. Videosamtal möjliggör också att tolkar kan tolka i samtal med hörande kollegor, i stället för att vara fysiskt närvarande. Trots detta krävs det ofta fortfarande en tolk på plats för full inkludering, eftersom nyanser i teckenspråk lätt förloras via videosamtal. Allt detta är fantastiskt! Teknik kan verkligen vara ett kraftfullt verktyg för att möjliggöra inkludering. Men det finns också en annan sida, nämligen att dessa digitala system kan upprätthålla diskriminering. Här vill jag belysa begreppet audism, myntat av Tom Humphries 1975, för att beskriva diskriminering av döva personer baserat på deras hörselförmåga. Som Humphries förklarade sker audism när vi ständigt bedömer exempelvis en persons intelligens, lycka eller framgång utifrån deras förmåga att höra och tala. I praktiken tar audism ofta formen av ett tyst antagande om att hörsel är överlägsen dövhet.

Historiskt sett har denna fördom bland annat tagit sig uttryck i oralismen – en utbildningsfilosofi som, i Sverige, från mitten av 1800-talet till ungefär 1970-talet dominerade, där döva barn tvingades lära sig tala och läsa på läppar i stället för att använda teckenspråk. I Sverige och på andra håll blev döva elever bestraffade för att använda teckenspråk och pressades till att anpassa sig till en hörande värld. Samtidigt verkade den eugeniska rörelsen – en ideologi som ville ”förbättra” människan genom att välja ut ”önskvärda” egenskaper. I Sverige innebar det bland annat tvångssterilisering av döva personer, ett tragiskt exempel på hur döva kroppar sågs som underlägsna och icke-värdiga. Idag har våra metoder för att förhindra födelsen av döva barn blivit mer teknologiskt avancerade. Cochleaimplantat (CI) är kanske det mest synliga exemplet – kirurgiskt inopererade apparater som gör att döva barn kan uppfatta ljud. Vissa CI-tillverkare och opinionsbildande grupper till och med har hävdat att teckenspråk är överflödigt, eftersom implantaten gör det möjligt för barnen att leva ett fullvärdigt ”hörande” liv. Men som forskaren Fiona Kumari Campbell, som specialiserar sig på funktionsnedsättningar, argumenterar i Contours of Ableism, så ger sådana tekniker inte bara hjälp – de kodar också in idén att kroppar som avviker från en förmodad norm måste fixas. I praktiken förstärker de diskriminerande antaganden om vilka språk, kroppar och sätt att existera som förtjänar legitimitet.

Vi står idag vid ett avgörande vägskäl där de val vi gör kring AI kommer att forma framtidens arbetsplatser. Innan vi låter algoritmer avgöra vem som ska anställas, hur prestationer ska utvärderas eller vilka röster som ska lyftas fram, har vi både ett ansvar och en möjlighet att stanna upp och fråga: Vem gynnas av dessa system och vem riskerar att hamna utanför? Genom att kritiskt granska våra antaganden om kommunikation, förmåga och produktivitet redan i designfasen, kan vi förhindra att nya former av uteslutning får fäste. Med andra ord, vi har makten att se till att AI-verktyg tjänar alla på ett rättvist sätt om vi bara väljer att förebygga potentiella fördomar istället för att reagera på dem i efterhand.

När vi ser hur AI successivt vävs in i våra dagliga arbetsflöden – från rekryteringsbotar och onboardingverktyg till realtidsbaserade prestationsbedömningar – finns det en risk att den gamla fördomen återupprepas. Dagens AI-system förutsätter ofta en ”typisk” användare som hör, talar och bearbetar information på konventionella sätt. På en arbetsplats där varje utvärdering, mötessammanfattning och återkoppling bygger på tal eller skrift, kan en döv medarbetare snabbt bli exkluderad. Vi måste inse att teknik aldrig är neutral. Den bär på inbyggda antaganden om kroppen, språket, produktivitet och kompetens som speglar värderingarna hos dem som utvecklat systemen. Om dessa värderingar inte utmanas kommer AI inte att motverka ojämlikhet – den kommer att automatisera den. Vi behöver bredda deltagandet i utvecklingen och implementeringen av dessa system. Inkludering kan inte vara ett efteragerande – det måste vara en grundläggande byggsten Det innebär att involvera döva yrkesverksamma, människor med olika funktionsnedsättning och normkritiska forskare i varje steg, från idéskiss till kodning. Att designa för mångfald är inte en begränsning – det är en etisk nödvändighet. Om vi vill ha en verkligt inkluderande framtid för arbetslivet måste vi inte bara skapa smartare system – vi måste skapa rättvisare system.

 

Om du har frågor/kommentarer kan du skicka ett e-postmeddelande till digma@mdu.se