13/06/2022 | Yazar: Sinan Göksoy

Arama motorlarının transfobik önerilerde bulunduğu yüzlerce vaka belgelendi.

Google’ın otomatik tamamlama önerileri transfobik aramalara nasıl teşvik ediyor? Kaos GL - LGBTİ+ Haber Portalı

Sinan Göksoy, them.us’ta yayınlanan Jd Shadel imzalı, 7 Nisan 2022 tarihli metni KaosGL.org için Türkçeleştirdi.

Hepimiz bir sorumuz olduğunda Google’a sorarız. Günde 3 milyardan fazla arama yapılan dünyanın en popüler arama motoru olan Google neredeyse düşüncelerimizi okuyor. Ve neredeyse 20 yıldır kullanıcıların bir sonraki düşüncesinin ne olacağını tahmin edebilmek için ürkütücü bir şekilde insanların arama kutusuna yazdıklarını analiz ediyor.

“Tavuk teriyaki” yazarsanız Google “satan yakınımdaki restoranlar” eklemenizi öneriyor. “Astronotlar” yazdığınızda ise “bez takar mı” diye sormanızı öneriyor.

Çoğu insan anlamını bilmese de bu tahmine dayalı arama sistemine alışık. Yazdığımız her harfte Google’ın sanal zekası neyi arıyor olabileceğimizi tahmin ediyor. Yardımcı olabilecek birçok önermede bulunsa da Google’ın tahmine dayalı aramaları aynı zamanda internetin en berbat ve ayrımcı eğilimlerini yansıtıyor.

Bu haftaya kadar neredeyse bütün transseksüel ünlüler hakkında yapılan aramalarda en üstte bulunanların transfobik öneriler olmasından da bu durum açıkça anlaşılabilir.

Geçtiğimiz birkaç ay boyunca başlıca kullanılan arama motorlarında trans ve cinsiyet bozan çok sayıda tanınmış kişiye uygulanan otomatik tamamlama önerilerini takip ettim. (Arama kişiselleştirmeyi atlatmak ve IP adresimi gizlemek için gizli sekme ve sanal özel ağ kullandım.) Aradığım hemen hemen her isimde - Laverne Cox, Angelica Ross, Tommy Dorfman ve daha fazlası  - otomatik doldurma beni transfobik imalı sorular sormaya veya ünlünün geçiş öncesi adını, görünümünü, cinsiyet kimliğini vb. araştırmaya sevk etti.

Bu tahminler arasında "geçiş fotoğraflarından önce [X]", "erkek olarak [X]", "ameliyattan önce [X]", " operasyon sonrası [X] ", " hormon kullanırken [X] " ve "[X] dönme mi?" gibi ifadeleri içeriyordu. Diğer tahminler, bir trans kadının adından sonra “erkek” ve bir trans erkeğin adından sonra “kadın” eklemek gibi, önceki adlarını (“ölü ad” olarak da bilinir) bulmaya çalışmaya veya onları yanlış cinsiyetlendirmeye yöneltti.

Bunları, Google'ın arama sonuçlarının ilk sayfasındaki "kullanıcılar bunları da sordu" ve "ilgili aramalar" önerilerinin yanı sıra, otomatik tamamlama tahminleri içindeki en iyi öneriler arasında sık sık buldum. Google, pazar payının yaklaşık %86'sına sahip olarak arama motorları alanındaki en ilgili oyuncu olsa da, benzer şekilde transfobik otomatik tamamlama önerileri sunan Microsoft Bing ve Yahoo da dahil olmak üzere çok daha az popüler olan arama motorlarında bu sorunla karşılaştım.

Sonuç olarak, son üç ayda 50'den fazla trans ünlü için 225'den fazla transfobik Google arama önerisi örneği belgeledim - Chaz Bono, Lana ve Lilly Wachowski, Lia Thomas, Indya Moore, Chelsea Manning, Elliot Page, Michaela Jaé Rodriguez, Hunter Schafer gibi isimlerin ve daha onlarcasının dahil olduğu bir kim kimdir listesi. Ve bu tek bir gazetecinin işiydi, bu da muhtemelen arama sonuçlarının dünyanın önde gelen trans şahıslarıyla ilgili sorunlarının yalnızca yüzeyini kazıdığım anlamına geliyor.

Örneğin ilk olarak arama kutusuna “Tommy Dorfman” yazdığımda Google “Tommy Dorfman erkek mi” ,“Tommy Dorfman hormon kullanıyor” ve “Tommy Dorfman öncesi ve sonrası” aramalarında bulunmamı önerdi. The Matrix serisinin ortak yaratıcısı Lilly Wachowski için Google, “erkek olarak”, “ameliyattan önce” ve “erkek” eklememi önerdi.

Aktör Elliot Page, şarkıcı Kim Petras, aktivist Chelsea Manning ve diğerleri dahil olmak üzere trans ünlüler için yapılan arama tahminleri arasında bulduğum baskın bir tema, onların "ölü adlarını", "doğum adlarını" veya "gerçek adlarını" arama isteğiydi”. Alexandra Billings ve Michaela Jaé Rodriguez de dahil olmak üzere trans kadınlar için çıkan sonuçlarda özellikle vurgulanan bir diğer tema, “erkek” gibi önerilerde bulunarak yanlış cinsiyet ataması yapılmasıydı. Ve araştırdığım transların neredeyse tamamı için “önce”, “ameliyattan öncesi” ve “geçişten önce” gibi tahminler en önemli öneriler arasında yer alıyordu.

Google'ın halkla ilişkiler ekibine bu sorunu dile getirdikten bir gün sonra şirket, önde gelen trans figürler için yapılan arama önerilerinde yapılan yanlış cinsiyet atamalarının en bariz örneklerinden bazılarını hızla kaldırmaya başladı. (Bu noktada, Google henüz bana bir röportaj veya basın açıklaması teklif etmemişti.)   

Ancak Google ile iletişime geçmeden önce görüştüğüm bilim insanları ve ruh sağlığı uzmanları, bu tahmine dayalı arama davranışının aynı anda birçok farklı yerde bulunmasının şimdiden geniş kapsamlı sonuçları olduğundan endişe ediyorlardı.

Trans sağlığı alanında önde gelen bir araştırmacı ve Dünya Profesyonel Transseksüel Sağlığı Birliği'nin klinik üyesi olan akademisyen ve lisanslı terapist Alex Iantaffi, "Bu arama önerileri, mevcut kültürel, sosyal ve politik ortamımızda yaygın olan transfobinin bir göstergesidir" diyor. “Bu da birçok trans ve/veya non-binary bireyin cinsiyetlerini keşfederken, kimliklerini ve/veya kendilerini ifade etme şekillerini dünyayla paylaşırken mücadele etmeleri gereken sorunlara ekleniyor.”

Iantaffi, bu tahmine dayalı arama davranışını, internette genellikle transların insanlığını göz ardı eden ve gayrimeşrulaştıran daha geniş bir toplumsal cinsiyet polisliği sistemi içinde bağlamsallaştırıyor. Google’da arama yapmak gibi günlük bir eylem sırasında tekrar tekrar transfobiyle karşılaşmanın, daha yüksek depresyon, kaygı, madde kullanımı ve intihar eğilimini arttırabileceği söyleniyor.

Iantaffi, ruh sağlığını yüksek düzeyde olumsuz etkileyen bu durumların, insanların ötekileştirilmiş konumları nedeniyle değil, bilgi almak, sokakta yürümek ya da tuvalete gitmek gibi en basit işlerle uğraşırken bile karşılaşılan sistemik baskı nedeniyle pek çok azınlıklaştırılmış toplulukta yaygın olduğunu açıklıyor.

Iantaffi ve diğer uzmanlara göre dünyanın en çok kullanılan arama motoru, kullanıcıları trans bir ünlünün "gerçek adını" aramaya veya belli bir tanınmış kişinin “erkek” olup olmadığını sormaya teşvik ettiğinde, bunların herhangi bir trans kişi hakkında sorulmasında sakınca bulunmayan sorular olduğunu ima ediyor. Bu durum trans kişilerin çevrimiçi oturum açtıklarında yaşadıkları ayrımcı ve düşmanca ortamın sürmesine neden oluyor.

Ve sahip olduğu güce ve kârına rağmen Google, tahmine dayalı arama önerilerinde bu tür transfobinin görünmesini önlemek için etkili bir önlem almadı. Bunun yerine şirket bu makalede olduğu gibi olay sonrası raporlama ve ardından manuel düzeltmelerin yapıldığı yetersiz bir otomatik filtreleme sistemi kullanıyor.

Tekrar tekrar bozulan geriye yönelik düzeltmeler

Google, yapay zekasının politikalarını ihlal eden önerilerde bulunmasını önlemek için otomatik bir sistem işletir. Bu sistem birçok sorunu yakalıyor olsa da, çeşitli ötekileştirilmiş topluluklara karşı olan nefret söylemlerinin tüm ayrıntılarını tanıma kabiliyeti yoktur.

Google, otomatik tamamlamayla ilgili en çok duyurulan sorunlardan bazılarını ele almak için düzenli aralıklarla düzeltmeler uygular. Ancak birçok ötekileştirilmiş topluluk için, sorunlu arama tahminlerini etkili bir şekilde bildirme vazifesi neredeyse tamamen halkın elinde.

Gerçekten de, 2017'den bu yana Google, otomatik tamamlama listelerinin altındaki küçük gri metinlerle veya sonuç sayfalarındaki arama önerilerinin yanında göze çarpmayan “geri bildirim” ve “uygunsuz önerileri bildir” bağlantılarını tıklatarak sorunlu önerileri bildirmek için kullanıcılara güveniyor gibi görünüyor. Bu bağlantıları takip ederken, kullanıcılardan hangi aramaların kaygı uyandırdığını belirtmeleri istenir. Ancak gazetecilerin iletişime geçmesi tarihsel olarak daha görünür eylemlere yol açtı.

Bu konuyla ilgili yorum yapmak için Google'a ulaştıktan bir gün sonra, birkaç trans ünlü için otomatik tamamlama önerilerini takip ettim ve tahminlerin değişmeye başladığını gözlemledim.

En göze çarpan arama önerilerinden bazıları artık görünmüyordu. Örneğin, Lilly Wachowski hakkında “erkek olarak” ve “erkek” gibi önceden en üstte çıkan öneriler tamamen filtrelenmişti. Google'ın daha önce arama motorunun "Hitler benim kahramanım" gibi otomatik tamamlama önerilerinde bulunduğuna dikkat çeken The Guardian ve Wired gibi yayın kuruluşlarından gelen bildirimleri yanıtlarken ne kadar hızlı davrandığını düşünürsek, durumun böyle olabileceğinden şüphelenmiştim.

Şirket, tarihsel olarak sosyal medyadaki tepkilerden sonra veya gazeteciler sorunlu önerileri araştırmaya başladığında harekete geçti. Bir sözcü, ayrımcı arama önerileriyle ilgili yukarıda belirtilen Guardian raporunun ardından Google'ın “bildirildikten birkaç saat sonra harekete geçtiğini” söyledi. Wired'ın 2017 raporu söz konusu olduğunda Google, yazar Issie Lapowsky'nin haberde yaptığı güncellemelerde belirttiği gibi, medya kuruluşu tarafından işaretlenen belirli önerileri kaldırmak için düzeltmelerle yanıt verdi.

Açıkçası, Google'ın otomatik sisteminin ayrımcı önerileri yakalama konusunda başarısız bir geçmişi var. Daha sistemik değişiklikler yapmak yerine, şirket politikalarını ihlal eden belirli arama sınıflarını filtreleyerek algoritmalarında hızlı değişiklikler yapmış gibi görünüyor.

Bir Google sözcüsü, ilk olarak yorum yapmak için iletişime geçtikten üç gün sonra yaptığı açıklamada, ”Birçok ihlali otomatik olarak filtrelesek de, maalesef sistemlerimizin amaçlandığı gibi çalışmadığı bir sorunu belirledik" dedi. “Bunları ve ilgili tahminleri politikalarımız kapsamında kaldırdık.”

Google sözcüsü, sisteminin "cinsiyet gibi hassas özellikler" ile ilişkili terimleri tanımlamak için tasarlandığını, ancak "öncesi" ve "ameliyat" gibi belirli arama terimlerinin "cinsiyetle ilgili olarak bu sınıflandırıcılar tarafından tanınmadığını" belirtti. (Bu yazı itibariyle, “ameliyat öncesi”, “doğumdaki cinsiyet”, “[X] hormon mu kullanıyor” ve “doğum adı” gibi terimler hala birçok trans ünlünün önerilerinde yer alıyor.)

Google'ın sözcüsü, “öncesi” veya “doğum adı” gibi terimler için evrensel bir düzeltme uygulanmasının, na-trans ünlüler hakkında arama yaparken önerileri daha az kullanışlı hale getirebileceğini belirtti.

Google sözcüsü yaptığı resmi açıklamada, şirketin bu tür korumaları nasıl uygulayacağı veya bu korumaların oluşturulmasında trans topluluğuna danışmayı planlayıp planlamadığı konusunda ayrıntılı bilgi vermemesine rağmen, bunun gibi belirli endişeleri gidermek için “daha güçlü otomatik korumalar uygulamak için çalıştığını” söyledi.

Ancak Washington Üniversitesi İnsan Merkezli Tasarım ve Mühendislik Bölümü'nde doktora adayı olan araştırmacı Os Keyes, bu tür geriye yönelik düzeltmelerin kolayca tekrar sorun haline dönüşebileceğini söylüyor.

Keyes, ”Tam olarak Google, otomatik tamamlama sistemini yeniden biçimlendirme, hangi sorguların engelleneceği ve ne zaman kısmen bu sorgulardan zarar gören nüfusun gücüne ve görünürlüğüne bağlı olduğu konusunda olay sonrası raporlamaya dayandığından" kaynaklandığını söylüyor.

 “Eğer küçük bir topluluktaysanız ve karar alma süreçlerinde sık sık görmezden gelindiyseniz veya baştan savulduysanız [trans insanlar gibi], sıranın sonundasınız demektir.”

Google'ın kendisi, sözcüleri de size ilk olarak bunu belirtecektir, transfobik sonuçları önerilerine özel olarak kodlamadı. Şirketin sorunlu arama önerileriyle ilgili geçmiş açıklamaları da otomatik sonuçların insanların aradıklarını yansıttığının altını çizme eğilimindedir.

Bir bakıma, Google'ın arama sonuçlarının sıklıkla yansıttığı ayrımcı konuşmadan sorumlu olmadığı doğrudur. Bilim insanı, Design Justice’ın yazarı ve Algorithmic Justice League’in araştırma yöneticisi Sasha Costanza-Chock bu durumu “Beyaz üstünlükçü, cisnormatif, heteroseksist, engellilere karşı ayrımcı, şişmanfobik, kapitalist, yerleşimci-sömürgeci bir toplumda, insanların aramaları tüm bu yapısal ve kültürel eşitsizlik biçimlerini yansıtıyor” diye açıklıyor.

Trans-karşıtı şiddetin ve toplumsal cinsiyete dayalı ayrımcılığın tüm biçimlerini toplumun her düzeyinde ortadan kaldırırsak, arama davranışı ve ilgi alanları elbette daha iyiye doğru değişim gösterecektir. "O zaman, otomatik tamamlamanın insanları ölü isimlendirmeyi veya ameliyattan önce resimlerini aramayı ya da 'gerçek adlarını' aramayı önerme olasılığı daha düşük olurdu" diyorlar.

Google, arama önerilerine yansıyan sosyal sorunlar üzerinde doğrudan kontrole sahip olmasa da, aslında bu yansımayı görmemizi sağlayan aynayı tasarladı. Costanza-Chock, "Arama arayüzleri gibi sosyoteknik sistemlerde programlanmış eşitsizlik, onları yapan şirketlere ve ürün ekiplerine izin vermez, çünkü bu sorunları bilirler" diyor.

Google'ın sözcüsü bu eleştiriyi kabul etti ve arama sorunlarının, ürününün arızalarından zarar gören insanları önemsememekten kaynaklanmadığını söyledi. Ancak bu şu soruyu akla getiriyor: Google, bu zararı ortaya çıkmadan önce hafifletmek için yeterince uğraşıyor mu?

Google, otomatik tamamlama dehşetinin yıllardır farkında

Tahmine dayalı arama, Google gibi genç oluşumların görünüşte insanların yaşamlarını nasıl iyileştireceğine odaklanan tekno-iyimserlik çağında başladı. 2004 Yılında Google mühendisi Kevin Gibbs, en yeni Google Labs deneyini duyurmak için iki paragraflık kısa bir blog yazısı yazdı: Google Suggest, otomatik tamamlama özelliği lansman sırasında biliniyordu.

Gibbs, ”Google Suggest, yalnızca favori aramalarınızı yazmayı kolaylaştırmakla kalmıyor (bununla yüzleşelim — hepimiz biraz tembeliz)" diye yazdı, "aynı zamanda başkalarının ne hakkında arama yaptığını keşfetmeniz için size bir oyun alanı da sunuyor.”

2008'de otomatik tamamlama, Google'ın varsayılan arama modu oldu. O zamandan bu yana, tahmine dayalı arama, bilgi arama şeklimize o kadar basit ve doğal gelen mikro etkileşimlerden biri haline geldi ki, kullanıcılar bazen arka planda çalışan algoritmalar olduğunu unutabilirler.

Costanza-Chock, ”[Google'ın yapay zekası] insanların arama dizelerini analiz ediyor ve bir karakter dizisinin ardından başka bir karakter veya kelime dizisinin geleceğine dair bir olasılık belirliyor" diyor. Google'a göre otomatik tamamlama algoritmaları, sık yapılan aramalar, kullanıcının dili ve konumu, trend olan aramalar ve kullanıcının bireysel arama geçmişi gibi çeşitli faktörlere dayanarak hangi tahminlerin gösterileceğini belirler.

Google'ın arama için halka açık irtibat sorumlusu Danny Sulivan, sistemlerin "şiddet içeren, cinsel içerikli, nefret dolu, aşağılayıcı veya tehlikeli olabilecek terimleri ve cümleleri tanımak için tasarlandığını" yazdı. Ancak zaman zaman, bu sistemler başarısız oluyor gibi görünüyor.

“Otomatik tamamlamanın dehşeti genellikle ötekileştirilmiş grupları orantısız şekilde etkiliyor.” Safiya Umoja Noble'ın 2018 Algorithms of Oppression kitabı, Google'ın arama algoritmalarının Siyah karşıtı ırkçılığı ve cinsiyetçiliği nasıl güçlendirdiğine dair on yıllık bir araştırmayı belgeliyor. Bir 2013 Birleşmiş Milletler kampanyası, kadın düşmanlığı ve homofobinin yaygınlığını göstermek için Google arama tahminlerini kullandı.

2016'da The Guardian tarafından yapılan bir soruşturma, sağcı grupların Google'ın algoritmalarını “Yahudiler kötüdür” gibi arama önerilerini görüntülemek için “oynayabildiğini" buldu. Ertesi yıl Wired, Google'ın hala İslamofobi, antisemitizm, cinsiyetçilik, ırkçılık ve dahasına dayanan “aşağılık önerilerde” bulunduğunu tespit etti.

Trans ünlüler hakkında çıkan sonuçlar, Google'ın uzmanların yıllardır dikkat çektiği bir sorunu çözmenin bir yolunu bulamadığının yalnızca ek bir göstergesidir.

Uzmanlar, Google’ın yapay zekasının zararlarına dikkat çekiyor

Algoritmik sistemlerin yol açtığı veya daha kötü hale getirdiği toplumsal zarar, günümüzün en önemli teknolojik ve politik sorunlarından biri haline gelmiştir. YouTube'un aşırılıkçılığı besleyen yapay zekasından demokrasiyi baltalayan Facebook'a kadar, tüm akademik alan şimdi bu tür sorulara odaklanıyor ve araştırmacılar, teknoloji devlerinin yalnızca bireysel davranışları etkilemekle kalmayıp aynı zamanda sivil ve sosyal alanlarımızı yeniden şekillendirmek için sahip oldukları önemli gücü defalarca gösteriyorlar.

Çalışmalar Google ile yapılan aramalarda arama sayfalarındaki sonuçların yalnızca sırasının bile algıyı ve hatta potansiyel olarak seçim sonuçlarını etkileyebileceğini göstermiştir. Bu genellikle “arama motoru manipülasyon etkisi” olarak bilinir ve en iyi arama sıralamalarındaki değişikliklerin tüketici seçiminden oylama davranışına kadar her şey üzerinde nasıl “önemli bir etkiye” sahip olabileceğini gösterir.

Araştırmanın bu kısmından otomatik tamamlama önerilerinin benzer şekilde güçlü sonuçlar doğurabileceği sonucuna varmak pek de çılgınca olmaz.

Yıllar boyunca, LGBTQ + ruh sağlığı uzmanları, trans ve queer insanların çevrimiçi olarak olumsuz temsil edilmesinin refahı ve benlik imajını nasıl etkileyebileceği konusuna dikkat çektiler. Iantaffi, bu Google arama tahminlerinin bu endişeleri etkilediğini söylüyor. Bana bir e-postada aramalardaki bu transfobik imaların bu insanlıktan çıkarma sürecini güçlendirdiğini söylediler.

Bunun gerçekten özellikle gençler için çok etkili olduğunu söylüyorlar.

Google'ın önceki açıklamaları, bir yöneticinin algoritmasının asla "mükemmel" olmayacağını söylemesiyle, bunun gibi sorunların çözülemeyecek kadar büyük olduğunu gösteriyor. Ancak birçok bilim adamı ve aktivist tarafından sorulan soru sistemin mükemmel olup olmadığı değil, Google'ın bu sorunları ciddiye alıp ve zararları daha oluşmadan azaltmak için yeterince çaba gösterip göstermediği.

Costanza-Chock, ”[Google], ürünleri daha etik ve sorumlu şekillerde geliştirmeleri gerektiği fikrine dair sözde yorumlar yapmaya başladı" diyor. "Fakat iş ciddiye bindiğinde çoğunun sadece sözde olduğunu görüyoruz."

Google'ın meşhur yapay zeka etiği uzmanı ve alanında lider bir araştırmacı olan Timnit Gebru, Aralık 2020'de şirketten ayrılmak zorunda kaldı. Çalışmaları, MIT Technology Review'un dediği gibi, modern arama özelliklerine destekleyenler gibi, “büyük miktarda metin verisi üzerinde eğitilmiş” derin öğrenme algoritmaları gibi büyük dil modellerinin risklerini ortaya çıkardı. Nihayetinde Gebru'yu Google'dan çıkmaya zorlayan araştırma makalede, çevresel ve yanlış bilgilendirme maliyetlerine ek olarak, büyük dil modellerinin boyutları nedeniyle “ırkçı, cinsiyetçi ve başka türlü küfürlü dil” konusunda eğitildiğini ve ayrımcı konuşmayı neyin oluşturduğunun nüanslarını kavramakta başarısız olma eğiliminde olduklarını bulundu.

“Onlarca yıldır insanlar arama motorlarında arama yapmanın zararlı olabileceği tüm farklı yolları anlatıyor.”

Bu uyarılar yalnızca daha da arttı, önemli bir aktivizme yol açtı ve hükümet düzenlemesi çağrısında bulundu. Gebru'nun Distributed AI Research Institute’u ve Joy Buolamwini'nin Algorithmic Justice League’i de dahil olmak üzere  birçoğu yapay zeka etiğinde öncü Siyah kadınların çalışmaları tarafından yönlendirilen benzer düşünen kuruluşlardan oluşan bir ağ bu konulara odaklanıyor.

“Google dün kurulmadı,” diyor Costanza-Chock. “İsterlerse doğru olanı yapmayı seçebilir ve bu sorunu gerçekten derinden anlamaya ve çözmenin yollarını bulmaya çalışmak için önemli kaynaklara yatırım yapabilirlerdi.”


Etiketler: medya, yaşam, dünyadan, medya okulu
2024