Yapay Zekâ Önyargısı ve İnsan Faktörü*

Yapay Zekâ Önyargısı ve İnsan Faktörü*

Oscar Wilde bir keresinde, hayatın sanatı, sanatın hayatı taklit ettiğinden daha fazla taklit ettiğini savunmuştu. Bugün garip bir şekilde, yapay zekâ (YZ) geliştirme söz konusu olduğunda bu öngörünün doğruluğu kanıtlanıyor, ancak bazılarının umduğu şekilde değil.

Uzay Yolu: Yeni Nesil’de android Data sürekli olarak programlamasını geliştirerek daha insancıl hale getirmek için çalışıyordu. YZ dünyamızda da artık böyle işliyor. Sistemler geliştikçe insanlar robotlarla güçlendirilmiş bir iş gücünü hayal etmeye başladı. Ancak aynı zamanda YZ giderek insana benzedi ve teknoloji belirgin bir insan engeli ile uygulanmaya başlandı: Önyargı.
Önyargıyı düzeltmek adına bu durum bizim için bir şans değil miydi? İnsanın önyargısı yakın zamanda yok olmayacağı için, insan zekâsının baş edemediği önyargıları ortadan kaldırmayı teknolojinin başarma gerekliliği doğuyordu. Ancak, bugün hala sadece insanların var olduğu dünyanın aynı sorunlarıyla uğraşıyoruz ve hatta bunlara yeni zorluklar ekliyoruz.

Algoritmik etki

YZ ve makine öğrenme programlarında ayrımcılık veriden kaynaklanır. Bu “algoritmik önyargı”, YZ ve bilgi işlem sistemleri objektif bir tarafsızlık içinde değil; verilerini formüle eden, temizleyen ve yapılandıran insanlardaki önyargılara göre hareket ettiği için ortaya çıkar. Bu durum, doğası gereği zararlı değildir. İnsani önyargı, kırmızıyı maviye tercih etmek kadar basit olabilir ancak bu konuda uyarılar ortaya çıkmaya başlamıştır.

Bu yılın başlarında, California Berkeley Üniversitesi’ndeki çeşitli disiplinlerden oluşan bir ekip, eğitim verilerinde önceden var olan önyargılarla, YZ sistemlerini çalıştıran araçlar ve algoritmalardan kaynaklanan teknik önyargılar ve bunlarla insan etkileşiminden kaynaklanan önyargılar arasındaki farkı belirledi.

YZ analiz etmek üzere eğitildiği veri kadar iyidir ve bu veriler bireysel ve toplumsal düzeyde önceden mevcut önyargıları içerebilir. Bu tür bir önyargı, COMPAS olarak bilinen bir risk değerlendirme yazılımında bulundu. Yazılımı hâkimler, hangi suçluların suç işleme olasılığının daha yüksek olduğunu tahmin etmek için kullandı. Haber kuruluşu ProPublica, Florida’nın bir ilçesinde tutuklanan 10.000 kişi için COMPAS risk değerlendirmelerini, hangilerinin yeniden suç işlediğini gösteren verilerle karşılaştırdı. Algoritma doğru olduğunda, karar vermenin adil olduğu keşfedildi. Ancak algoritma yanlış olduğunda, beyaz olmayan ırkların daha yüksek risk grubunda etiketlenme olasılığı neredeyse iki kat daha fazlaydı. Bu tespite rağmen bu gruplarda yeniden suça yönelime rastlanmadı.

Teknik önyargı, bilinen veya bilinmeyen teknik sınırlamalardan kaynaklanır. Bu durum bir YZ sisteminin kullandığı araçları ve algoritmaları içerir. Mayıs 2016’da Florida, Williston’da bir Tesla Model S ve bir traktör römorkunun karıştığı kaza, güçlü bir teknik önyargı örneği sunuyor. Otoyolda ilerlerken otomatik pilotu devreye sokan Tesla sürücüsüne bir traktör römorku çarparak ölümüne sebep oldu. Tesla daha sonra şunları paylaştı: “Otopilot ve sürücü, çekici römorkun beyaz boyası parladığı için durumu fark etmedi ve bu yüzden de fren sistemi devreye girmedi.”

Etkileşime bağlı önyargı, yalnızca sistem kullanıldığında belirlenebilir. Bu da yeni bilgilerle karşılaşıldığında veya bir kullanıcı ve sistem tasarımı uyumsuzluğu olduğunda gerçekleşir. Dünya bu tür bir önyargıya şöyle şahit oldu; ABD’li bir çift Mayıs 2018’de evlerindeki Amazon Echo akıllı hoparlörlerinden birinin özel bir görüşmeyi kaydettiğini ve kendi bilgileri dışında bir arkadaşlarına e-postayla gönderdiğini tespit etti. Bunun üzerine Amazon, sesle etkinleştirilen Echo’nun konuşma sırasında bir dizi uygun olmayan kelime tespit ettiğini açıkladı.

Doğal olarak, bu örnekler şu soruyu akla getiriyor: YZ önyargısını önlemek için ne yapılabilir? Sorunu tam olarak çözüp çözemeyeceğimizi söylemek için henüz çok erken olsa da, YZ sistemleri oluşturmada kritik rol oynayan insanların, bu sistemlerdeki önyargıyı ele almada da benzer şekilde kritik rol oynayacakları aşikârdır.

Problem çözümün kendisidir

Ne yazık ki, algoritma önyargısını çözmek için teknolojiye güvenemeyiz. Hiçbir akıllı uygulama, YZ sistemlerine bu hataları tespit etmek ve düzeltmek için gereken anlayışı kazandıramaz. Bu konuyu insanların ele alması gerekir.

İnsanların YZ ortamındaki konumu sıkça yanlış anlaşılmaktadır çünkü birçok insan sahne arkasında neler olup bittiğini bilmemektedir. YZ’yı hayata geçirmek için algoritmalar oluşturmak ve kapsamlı veri kümeleri düzenlemek için uzun saatler harcayacak bir insan ordusu gerekir. Tabii ki insanlar bu süreçte kritik rol oynamaktadır, bu nedenle program geliştiriciler, YZ sistemlerinde önyargıyı belirlemek ve azaltmak için çalışmalarına eğitim ve güvenlik önlemleri eklemelidir. Pek çok olası problem, veri açıklamalarının en azından bir kısmını üçüncü taraflara sağladığından, bu durum onların satıcılarına ve hizmet sağlayıcılarına kadar uzanır.

Günümüzde programcılara veri üretim hatları konusunda yardımcı olacak birçok kaynak var, ancak bunların tümü eşit şekilde geliştirilmemiştir. Örneğin, bazı kullanıma hazır, herkesin yararlanabildiği kitle kaynak modelleri, anonim oldukları için birtakım riskler de içerirler. Geliştiricileriyle hiçbir ilişki kurulamadığı için ortaya çıkabilecek sorunları düzeltmenin bir yolu da yoktur ve önemli veri kümelerinin kapıları önyargılara sonuna kadar açık bırakılır. İşletmelerinde herhangi bir değerlendirme yapmak isteyenler önyargılara açık oldukları için bu araçlar kurumsal düzeyde yetersiz kalmaktadır.

Kuruluşlar verilerini nasıl yönetmeye karar verirse versin, istenmeyen önyargıyı azaltmak için durum tespiti zorunludur. Hesap verebilirlik, ilişki odaklı bir iş modelidir. Bu nedenle programcılar, insanları veri açıklama sürecine stratejik olarak dâhil etmenin yollarını belirlemelidir. İletişim ve süreçleri gerçek zamanlı olarak geliştirme yeteneği, programcıların YZ sistemlerinin doğru temel gerçeği yansıtan eğitim verilerini tüketmesini sağlamaları açısından önemlidir. Ayrıca programcılar verilerdeki olası yanlılığı ortadan kaldırmak için engeller oluşturabilmeli ve gerektiğinde iyileştirmeler yapabilmelidirler.

Önümüzdeki yol

İnsanlar yapay zekâ teknolojileri geliştirdiği sürece, önyargının kalıcı bir soruna dönüşmesi olasıdır. Uzay Yolu’ndaki android Data’ya benzer şekilde, önyargıyı azaltma çabası, en iyiye ulaşmak için çabalamamızı gerektiren bir evrim olacaktır. Bu; sürece hesap verebilirliği katarak, devamlı gelişme, sürekli test etme ve gelişmiş sistemlerde olası önyargılar hakkında bilgi sahibi olma anlamına gelir. Önyargıları belirleyip ele almak için iş ortaklarıyla yakın çalışmak ve süreçler oluşturmak, YZ’nın daha önce mümkün olduğunu düşündüğümüzün ötesine geçmesine ve muhtemelen daha önce hiçbir insanın gitmediği yerlere cesurca gitmemize yardımcı olacaktır.

*Sears M. AI bias and the ‘people factor’ in AI development [İnternet]. Uygun erişim: https://www.forbes.com/sites/marksears1/2018/11/13/ai-bias-and-the-people-factor-in-ai-development/?sh=235d4919134c

Diğer Makaleler

Yorum yapın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmiştir

Son Makaleler

En Çok Yorumlanan

Öne Çıkan Videolar

Prof. Dr. Acar Baltaş’tan evden çalışırken verimli olmak ve zihinsel sağlığı korumak için öneriler

Prof. Dr. Acar Baltaş “Okullar yüz yüze eğitime hazır mı?” konusu üzerine görüşlerini aktardı

Prof. Dr. Acar Baltaş Habertürk'te Muharrem Sarıkaya’nın sunduğu Gündem programına konuk oldu. Yurtlarda aşı zorunlu olmalı mı? Aşı olan ve olmayan öğrenci aynı odada mı kalacak? Okullar yüz yüze eğitime hazır mı? Habertürk Gündem'de Psikolog Prof. Dr. Acar Baltaş: "Çare toplu ve hızlı hareket etmek. Kurumlara güven oldukça krizler kolay aşılır" diyor ve tüm sorulara

Öne Çıkan Kitaplar

Anket: Kendinizi Deneyin