Pazar, Ocak 23, 2022
spot_img
Ana SayfaTeknoloji HaberleriAI'yı Sorumlu Tutma Hareketi Daha Fazla Steam Kazanıyor

AI’yı Sorumlu Tutma Hareketi Daha Fazla Steam Kazanıyor

Kar amacı gütmeyen özel bir kuruluş olan Algorithmic Justice League (AJL) tarafından yakında yayınlanacak bir rapor, bir AI modeli kullanıldığında ifşa edilmesini ve AI’nın zarar verdiği durumlarda halka açık bir olay havuzu oluşturulmasını tavsiye ediyor. Depo, denetçilerin algoritmalarla ilgili olası sorunları tespit etmelerine ve düzenleyicilerin suçluları soruşturmasına veya tekrar eden suçluları cezalandırmasına yardımcı olabilir. AJL’nin kurucu ortağı Joy Buolamwini, yüz tanıma algoritmalarının en iyi beyaz erkeklerde ve en kötü şekilde koyu tenli kadınlarda çalıştığını bulan etkili bir 2018 denetiminin ortak yazarlarından biri.

Rapor, denetçilerin bağımsız olmasının ve sonuçların kamu tarafından gözden geçirilebilir olmasının çok önemli olduğunu söylüyor. AJL araştırma başkanı Sasha Costanza-Chock, bu güvenceler olmadan “hiç bir hesap verebilirlik mekanizması olmaz” diyor. “İsterlerse gömebilirler; bir sorun bulunursa, çözüldüğünün garantisi yoktur. Dişsizdir, gizlidir ve denetçilerin hiçbir etkisi yoktur.”

Deb Raji, AJL’de denetimleri değerlendiren bir arkadaştır ve 2018 yüz tanıma algoritmaları denetimine katıldı. Big Tech şirketlerinin dış denetçilere karşı daha düşmanca bir yaklaşım benimsediği ve bazen mahremiyet veya bilgisayar korsanlığı karşıtı gerekçelere dayalı davaları tehdit ettiği konusunda uyarıyor. Ağustos ayında Facebook, NYU akademisyenlerinin siyasi reklam harcamalarını izlemesini engelledi ve bir Alman araştırmacının Instagram algoritmasını araştırma çabalarını engelledi.

Raji, standartları uygulamak veya denetçiler ile şirketler arasındaki anlaşmazlıklarda arabuluculuk yapmak gibi şeyler yapmak için federal bir kurum içinde bir denetim gözetim kurulu oluşturulması çağrısında bulunuyor. Böyle bir pano, Mali Muhasebe Standartları Kurulu veya Gıda ve İlaç İdaresi’nin tıbbi cihazları değerlendirme standartlarına göre şekillendirilebilir.

Denetimler ve denetçiler için standartlar önemlidir, çünkü AI’yı düzenlemeye yönelik artan çağrılar, bazıları AI eleştirmenleri tarafından ve diğerleri de denetledikleri şirketler için daha uygun olabilecek bir dizi denetim girişiminin yaratılmasına yol açmıştır. 2019’da, 30 kuruluştan bir AI araştırmacısı koalisyonu, insanların doğrulanabilir sonuçlarla güvendiği AI oluşturmanın bir parçası olarak denetçiler için bir pazar yaratan dış denetimler ve düzenlemeler önerdi.

Cathy O’Neil, kısmen kamu tarafından görülemeyen veya erişilemeyen yapay zekayı değerlendirmek için O’Neil Risk Danışmanlığı ve Algoritmik Denetim (Orcaa) adlı bir şirket kurdu. Örneğin, Orcaa, finansal veya tüketici ürünü algoritmalarını değerlendirmek için dört ABD eyaletinin başsavcılarıyla birlikte çalışır. Ancak O’Neil, potansiyel müşterilerini kaybettiğini söylüyor çünkü şirketler makul bir inkar edilebilirliği sürdürmek istiyor ve yapay zekalarının insanlara zarar verip vermediğini veya nasıl olduğunu bilmek istemiyor.

Bu yılın başlarında Orcaa, HireVue tarafından iş görüşmeleri sırasında insanların yüzlerini analiz etmek için kullanılan bir algoritmanın denetimini gerçekleştirdi. Şirket tarafından yapılan bir basın açıklaması, denetimin doğruluk veya önyargı sorunu bulunmadığını iddia etti, ancak denetim, sistemin kodunu, eğitim verilerini veya farklı insan grupları için performansını değerlendirmek için hiçbir girişimde bulunmadı. Eleştirmenler, HireVue’nin denetime ilişkin tanımlamasının yanıltıcı ve samimiyetsiz olduğunu söyledi. Denetimin yayınlanmasından kısa bir süre önce HireVue, video iş görüşmelerinde yapay zekayı kullanmayı bırakacağını söyledi.

O’Neil denetimlerin yararlı olabileceğini düşünüyor, ancak bazı açılardan AJL tarafından öngörülen yaklaşımı benimsemek için çok erken olduğunu söylüyor, çünkü kısmen denetimler için standartlar yok ve yapay zekanın insanlara nasıl zarar verdiğini tam olarak anlamıyoruz. . Bunun yerine, O’Neil başka bir yaklaşımı tercih ediyor: algoritmik etki değerlendirmeleri.

Bir denetim, örneğin erkeklere kadınlardan farklı davranıp davranmadığını görmek için bir AI modelinin çıktısını değerlendirebilirken, bir etki değerlendirmesi daha çok bir algoritmanın nasıl tasarlandığına, kimin zarar görebileceğine ve işler ters giderse kimin sorumlu olduğuna odaklanabilir. . Kanada’da işletmeler, bir algoritmayı dağıtmanın bireylere ve topluluklara yönelik risklerini değerlendirmelidir; ABD’de, AI’nın ne zaman düşük veya yüksek riskli olduğuna karar vermek ve insanların AI’ya ne kadar güvendiğini ölçmek için değerlendirmeler geliştirilmektedir.

Etki ve potansiyel zararı ölçme fikri, 1970’lerde, çevresel etki beyanlarının oluşturulmasına yol açan Ulusal Çevre Koruma Yasası ile başladı. Bu raporlar, kirlilikten antik eserlerin potansiyel keşfine kadar olan faktörleri hesaba katar; benzer şekilde algoritmalar için etki değerlendirmeleri çok çeşitli faktörleri dikkate alacaktır.

RELATED ARTICLES

CEVAP VER

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments