Recent onderzoek heeft aangetoond dat AI medische klachten van vrouwen systematisch milder en minder urgent omschrijft dan identieke klachten van mannen. Het risico hiervan is dat vrouwen niet of verkeerd worden doorverwezen en daardoor niet de juiste behandeling ontvangen.
In dit onderzoek, gepubliceerd in augustus 2025, werden grote taalmodellen (LLM’s) op ‘gender bias’ getest door in 617 dossiers van ouderen uit de langdurige zorg het geslacht te laten wijzigen en deze te laten samenvatten door verschillende LLM’s. Er is daarbij gekeken naar Meta's Llama 3 en Google Gemma (twee geavanceerde, open-source modellen uit 2024), evenals T5 en BART (twee benchmarkmodellen van Meta en Google uit 2019).
Dit onderzoek laat zien dat AI-modellen op dit moment niet beter kunnen functioneren dan de data waarmee ze zijn getraind. Medisch onderzoek is namelijk meestal gericht op mannen en het is een bekend probleem dat vrouwen zich vaak niet begrepen voelen door artsen. Sterker nog, uit een ander onderzoek is gebleken dat 80% van de patiënten met onverklaarbare klachten een vrouw is.
Bij het gebruik van AI-modellen is het dus belangrijk om te beseffen dat veel vooroordelen uit de praktijk worden meegenomen in het trainen van de AI-modellen en deze dus een rol kunnen spelen in de output.
Het is een feit dat AI veel potentieel heeft en het gaat gegarandeerd oplossingen bieden voor uitdagingen in de gezondheidszorg. Maar blijf te allen tijde kritisch en vraag jezelf continu af voor welke taken van zorgprofessionals AI geschikt is ter ondersteuning om hun werk makkelijker te maken. Wees daarbij scherp op de vooroordelen van AI, zet AI in als een tweede paar ogen en borg dat beslissingen bij mensen liggen, want AI zal nooit de menselijke kant van de zorg vervangen.