Yapay Zeka Adil Olabilir mi? Ya Ayrımcılık Yaparsa!

Joy Buolamwini, yapay zekanın sosyal etkilerini aydınlatmak için araştırma yapan bir kod yazılım uzmanı. MIT  Medya Lab’ da lisansüstü öğrencisiyken robotun yüzünü tanımadığını fark etti. Robot, Buolamwini’nin yüzünü ancak beyaz bir maske taktığında algılayabiliyordu. Çünkü algoritmayı kodlayan kişiler belli cilt tonlarını ve yüz hatlarını tanımlamayı öğretmişti. Bu hatanın sebebi ise yüz tanıma sisteminde kullanılan algoritmik yanlılık. Algoritmik yanlılık insanların ayrımcılık yapması gibi ayrımcı uygulamalara neden olabiliyor.

Joy Buolamwini‘ne göre algoritmik yanlılığı ortadan kaldırmak için daha kapsamlı kod yazılımı yapılmalı. Yazılımlar adaletli bir şekilde oluşturulmalı. Yapay zeka da sosyal gelişim öncelikli hale getirilmeli. Buolamwini bu tip hataları önlemek için algoritmik adalet ligini kurdu.

Peki  yapay zeka algoritmik yanlılığı nasıl öğreniyor? Kısaca bakalım.

 

Önceki sayfa 1 2 3Sonraki sayfa
Etiketler
Gülsüm Kutlu

Gülsüm Kutlu

Akdeniz üniversitesinde çalışma ekonomisi ve endüstri ilşkileri bölümü 4. sınıf öğrencisiyim. Ayrıca konservatuarda yan flut öğrencisiyim. Moblobi.com da "Gülsüm'ün Teknoloji Dünyası" köşemde teknoloji ile ilgili bilgileri sizinle paylaşacağım.


İlgili Makaleler

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
Kapalı