De opkomst van kunstmatige intelligentie (AI) kan lhbti'ers buitenspel zetten. De algoritmes kunnen hen uitsluiten en discrimineren in het onderwijs, op de arbeidsmarkt en in de gezondheidszorg. Dat komt doordat de groep niet goed is vertegenwoordigd in de gegevens die de technologie gebruikt. Daarvoor waarschuwt kennisinstituut Movisie.
De onderzoekers keken op verzoek van het ministerie van Onderwijs naar de technologie. Ze constateren onder meer dat in landen waar homoseksualiteit een groot taboe is, informatie over lhbti-personen soms wordt gezien als porno. Die informatie wordt dan door sommige filters tegengehouden. Lhbti'ers blijven onzichtbaar en komen dus ook niet terug in de informatie waarmee de kunstmatige intelligentie wordt gevoed.
AI kan ook worden beïnvloed door vooroordelen in de samenleving. "Algoritmen hebben geen emoties. Ze doen wat hen gezegd wordt en ze voorspellen op basis van data. En daar zit de crux: de instructies worden door mensen gemaakt en de data worden door mensen verzameld", aldus Movisie. Volgens de onderzoekers kan kunstmatige intelligentie vooroordelen overnemen en soms zelfs versterken.
Dat kan ook gevolgen hebben wanneer lhbti'ers solliciteren, stelt Movisie. Als een afdeling personeelszaken vooral naar interesses en eigenschappen kijkt die ongunstig uitvallen voor lhbti'ers, en AI vervolgens wordt getraind met de cv's van mensen die zijn aangenomen, zal de computer die vooroordelen overnemen bij het beoordelen van kandidaten bij een volgende vacature.
Het instituut roept overheden en bedrijven op om rekening te houden met lhbti'ers. "Zeker gezien de kwetsbare positie van lhbti+-personen, is het belangrijk de waarde van kunstmatige intelligentie niet zomaar voor lief te nemen." Hoe dat het beste kan gebeuren, laten de onderzoekers in het midden. Ze vragen betrokkenen om daar bij het ontwikkelen van AI over na te denken.