Psikoloji Teknoloji

Kararlarımızı Etkileyen Şeytan: Irkçı Algoritmalar

Yazar | Editör
 

Hayatımızla ilgili kararları etkileyen algoritmaların insanlar arasındaki çeşitliliği gözardı eden veritabanlarına dayanıyor olduğu endişesi git gide büyüyor.

İnternette neleri beğendiğimizden tutun, bir suçu teşvik etme ya da suça maruz kalma olasılığımızla ilgili yargılara kadar her şeyi bu algoritmalar belirleyebiliyor.

Kazayla da olsa bu durum, karar süreçlerinde önyargılara neden olabilir.

İnternette herhangi bir arama motorunda “eller” ya da “bebekler” kelimelerini aratın. Görsel arama sonuçlarında çoğunlukla beyaz insanları göreceksiniz.

Google: Görsel arama sonuçlarının değerlerimizle ilgisi yok

Grafik tasarımcısı Johanna Burai, Google aramalarında karşılaştığı sonuçların ağırlık olarak “beyaz” olması üzerine, “World White Web Project” adlı internet sitesini kurdu.

Sitede içerik üreticilerine “alternatif” el fotoğrafları sunularak, dengenin sağlanması amaçlandı.

Google aramalarındaki beyaz ellerTelif hakkı: GOOGLE

Dev arama motoru Google, eleştiriler karşısında görsel arama sonuçlarının kendi “değerleriyle” ilgisi olmadığını savunuyor. Google yetkilileri, arama sonuçlarının “internetteki içeriklerde ne tür görsellerin daha çok kullanıldığı ve internette bu görsellerin nasıl tanımlandıklarını” yansıttığını belirtiyor.

Öte yandan, Johanna Burai farkındalığın giderek arttığını söylüyor. Burai, “İnsanlar sorunu görmeye başladılar. Projeye ilk başladığımda, insanlar şok içindeydi” diyor.

Algoritmalarda adaletin sağlanması amacıyla kurulan Algorithmic Justice League (AJL) de, bu konudaki farkındalığın en iyi örneklerinden.

Beyaz maske takmak zorunda kalıyordum

Bu inisiyatifin kurucusu olan Joy Buolamwini, ABD’nin tanınmış üniversitelerinden Massachusetts Institute of Technology’de (MIT) doktora öğrencisi.

Joy Buolamwini
Telif hakkı : JOY BUOLAMWİNİ
Image captionYapay zeka, siyah olan Joy Buolamwini’yi ten renginden dolayı tanımayınca, beyaz maske takmaya başlamış.

Bir yüz tanıma programı ten renginden dolayı onu tanıyamadığı için, bu projeyi başlatmış. Boulamwini, yapay zeka yüzünü tanımadığı için, bir noktada beyaz maske kullanmaya başlamış. Bundan 5 yıl önce de, teni daha açık olan oda arkadaşından yardım istiyormuş:

“Çok karışık hisler içindeydim. Hem bu sorunun beş yıldır halen devam ediyor olması karşısında kızıyordum, hem de beyaz maskenin bu kadar işe yaraması bana eğlenceli geliyordu.”

Örneğin bir tıp araştırmacısı, AJL’ye danışarak cilt kanserini tanıyan bir algoritmanın siyahlarda çalışıp çalışmadığını görmek istemiş.

Aşırı kilo ya da obezitesi olanlar ile yaşlılara yönelik yapay zeka teknolojilerinin nasıl çalıştığı da, Buolamwini için merak konusu.

Google: Teknik çalışanların sadece yüzde 19’u kadın, yüzde 1’i siyah

Boulamwini’ye göre, algoritmalardaki sorunun bir kaynağı da, teknoloji endüstrisinde çalışanlar arasındaki çeşitlilik eksikliği. Dev teknoloji şirketlerinin her yıl yayınladığı “çeşitlilik raporları” da buna işaret ediyor:

  • Google’ın Ocak 2016’da paylaşılan son raporunda, şirketteki teknik departmanlarda çalışanların sadece yüzde 19’unun kadın olduğu, yüzde 1’inin de siyahlardan oluştuğu görülüyor.
  • Microsoft’un Eylül 2016’daki raporuna göre, bu çalışanların yüzde 17.5’i kadın ve yüzde 2.7’si siyah ya da Afrikalı Amerikalı.
  • Facebook’un Haziran 2016’da yayınladığı raporda ise, ABD departmanının yüzde 17’sinin kadın ve yüzde 1’inin de siyahlardan oluştuğu belirtilmiş.

100 ülkede çekilen 6 bin selfie (özçekim) üzerinden geçen sene algoritmaların seçtiği güzellik yarışmasında kazanan 44 kişiden sadece birisi beyaz değildi ve az sayıda Asyalı vardı.

Yapay zeka suça eğilimde siyahları öne koyuyor

Bir araştırmaya göre, ABD’de suçluların tespit edilmesi için kullanılan yapay zeka ise, beyazlara oranla siyahların suçlarla bağlantılı olması riskini daha fazla tutuyor.

Uzmanlara göre, dünya değişirken karar mekanizmalarındaki taraflılık ve önyargılar, ileride muğlak doğru olarak görülecek ve bu durumun farkında bile olmayacağız.

RobotTelif hakkı: GETTY IMAGES

Uzmanlara göre bu sorunu çözmek için üç temel adım atılabilir:

  • Algoritmaları ‘eğitmek’ için daha çeşitli veri tabanları üretmek
  • Yazılım ve program satıcıları arasında bu alışkanlığı yaygınlaştırmak
  • Algoritmaları, karar verme süreçlerindeki ön yargılarla ilgili kullanıcıları bilgilendirecek şekilde kurmak.

Eğer bu algoritmalar içselleştirilirse, gelecekte hayatımızdaki yeri giderek genişleyecek olan robotlar da aynı ön yargılarla geliştirilmiş olacak.

Kaynak: BBC TÜRKÇE

Yazar Hakkında

Editör

Yorum Yap