Sanırım algoritmaların adil olabilmesi, dünyayı birebir yansıtmasından değil, ulaşılacak daha iyi, daha adil, daha çeşitli bir toplum hayaline sahip olabilmemizden ve bu hayale sahip çıkıp onu savunabilmemizden geçiyor.

01.03.2019 – 11:52

Geçen ay kullanıcıların, verilerinin kullanımı konusunda giderek artan hassasiyetlerini ve bunun olası sonuçlarını tartışmıştık. Ülkemizde son kullanıcı düzeyinde henüz aynı derecede tartışılmasa da etrafımızı saran, kararlarımızı yönlendiren algoritmaların adil, yanlı veya ayrımcı olup olmadığı ve çıkarımlarının olumlu olumsuz etkileri, oldukça önemli ve geleceğimizi belirleyecek bir tartışma konusu.

Algoritmaların günlük hayatımıza etkisi her geçen gün artıyor. Ne okuyacağımızı, ne izleyeceğimizi, kiminle arkadaş olacağımızı öneriyor, hangi reklamları göreceğimizi belirliyor, kredi alıp alamayacağımıza, işe girip giremeyeceğimize karar veriyorlar. Açık ve büyük hatalar kamuoyunda tartışılıyor ama bu aynı zamanda fark etmediğimiz birçok problem olabileceği endişesi de doğuruyor.

Örneklendirmek gerekirse 2015 yılında Google Photos’un siyahi kişileri goril olarak etiketleyebildiği ortaya çıkmış, Google kökten bir çözüm olarak goril, şempanze ve maymun etiketlemesini tümden devre dışı bırakmıştı. Microsoft’un Twitter chatbot’u Tay’ı hatırlarsınız; Tay gerçek kullanıcılarla sohbet ederek “öğreniyordu” ve 24 saat içinde ırkçı, Nazi sempatizanı, kadın düşmanı bir hale gelip kapatılmıştı. İlk yapay zekâ güzellik yarışması olarak ses getiren beauty.ai, 100 farklı ülkeden 6 bin katılımcıyla yapıldı ve 44 kazanan “güzel”in yüzde 90’ı beyazdı. Amerika’da polislerin ve adalet görevlilerinin kullandığı COMPAS sisteminin siyahiler aleyhine yanlı kararlar verdiği ve onların haksız yere daha ağır cezalara çarptırılmasına sebep olduğu ortaya çıktı…

Algoritmalar adil toplum düşler mi?

Neden ve ne yapılabilir?

İlk olarak algoritmalar yanlı, ayrımcı yazılmış olabilir. Değişkenleriniz direkt cinsiyet, ırk, din, siyasi görüş veya bunları dolaylı olarak temsil edebilecek lokasyon, giyim tarzı hatta müzik zevki olduğunda, kastınız bu olmasa da ayrımcı sonuçlara ulaşabilirsiniz. Bunu engellemek için algoritmaların denetime açık olması gerekiyor ama nasıl? Özel şirketler çok ciddi zaman, para, emek harcadıkları, ticari sırları olan algoritmaları herkese açabilirler mi? Açsalar bile tanımı itibarıyla bir algoritmanın nasıl çalıştığını tam olarak anlamak ne derece mümkün?

Adil algoritmalar üzerinde çalışan Harvard Üniversitesi’nden Berk Üstün ve ekip arkadaşlarının çalışması, bu zor soruya kanımca manalı bir çözüm öneriyor: Algoritma sizin hakkınızda bir karar verdiğinde, bu kararın değişebilmesi için ne yapmanız gerektiği konusunda size geribildirimde bulunabilmeli.

Örneğin; bir iş başvurusunda bu geribildirim, dil öğrenmek ya da belirli bir bölümü bitirmek olabilir. Ancak değiştiremeyeceğiniz yaş, cinsiyet gibi şartlara sahip olamaz.

İkincisi, algoritmanızı eğittiğiniz veri setinin -Tay örneğinde olduğu gibi- yanlı olması, algoritma ne kadar düzgün olursa olsun kötü sonuç üretebilir. Yanlı veriler, davranışçı ekonomiden bildiğimiz onaylama hatasının algoritmik versiyonu gibi çalışan geribildirim döngüleri oluşturabilir. Bu durumda kehanet kendini gerçekleştirecek, algoritma nesnel olarak bulması gerektiğini değil, bulmayı beklediğini bulacaktır. Algoritmaların denetime açık veri setleriyle eğitilmesi bu sorunu önler gibi gözüküyor.

Üçüncüsü ve en zoru algoritma düzgün ve veri seti gerçek dünyayı yanlı değil, bir ayna gibi doğru yansıtıyor olabilir ama aynadaki görüntü pek hoş olmayabilir. Birçok açıdan eşitsiz, ayrımcı toplumlarda yaşıyoruz. Bugün kağıt üzerinde değişmiş veya eşitlenmiş görünen cinsiyet, ırk, din temelli birçok eşitsizlik, tarihsel yükü sebebiyle verinin acımasız aynasında karşımıza çıktığında “objektif” olmak yeterli değil, aksine var olan eşitsizlikleri derinleştirecek sonuçlar ortaya çıkartabilir.

Sanırım algoritmaların adil olabilmesi, dünyayı birebir yansıtmasından değil, ulaşılacak daha iyi, daha adil, daha çeşitli bir toplum hayaline sahip olabilmemizden ve bu hayale sahip çıkıp onu savunabilmemizden geçiyor.

Algoritmaların -şimdilik- hayalleri yok, bizim olmalı.

Yeniler