İngiltere'de yapılan araştırma, yapay zeka araçlarının kadınların fiziksel ve zihinsel sağlık sorunlarını küçümsediğini ortaya koydu. Özellikle Google'ın “Gemma” adlı yapay zeka modeli, kadın vakalarını erkek vakalarına kıyasla daha az ciddi terimlerle tanımlıyor. Bu durum, kadınların bakım hizmetlerinde eşitsiz muamele görme riskini artırıyor.
Yerel yönetimler sosyal hizmet uzmanlarının iş yükünü azaltmak için yapay zekaya giderek daha fazla güveniyor. Ancak kullanılan yapay zeka modellerinin hangileri olduğu ve karar süreçlerine etkileri tam olarak bilinmiyor. Londra Ekonomi ve Siyaset Bilimi Okulu'nun (LSE) yürüttüğü araştırmada, 617 sosyal hizmet kullanıcısının vaka notları yapay zeka sistemlerine girilerek analiz edildi. Sonuçlar, kadınların sağlık sorunlarının daha az önceliklendirildiğini gösterdi.
Raporu hazırlayan LSE araştırmacısı Dr. Sam Rickman, yapay zekanın kadınlara eşit olmayan bakım hizmetine yol açabileceğini belirtti. Rickman, “Bu modeller yaygın kullanılıyor ama kadınların ihtiyaçlarını erkeklere göre daha az ciddiye alıyor” dedi. Ayrıca yapay zekanın şeffaf, önyargısız ve yasal denetime tabi olması gerektiğini vurguladı.
Araştırmada Google'ın Gemma modeli belirgin cinsiyet önyargıları sergilerken, Meta'nın Llama 3 modeli bu açıdan daha tarafsız çıktı. Uzmanlar, yapay zeka sistemlerinin cinsiyet ve ırk önyargılarından arındırılması için düzenleyici önlemlerin zorunlu olduğunu söylüyor.