Perşembe, Ocak 27, 2022
spot_img
Ana SayfaTeknoloji HaberleriRE:WIRED 2021: Timnit Gebru, Yapay Zekanın Yavaşlaması Gerektiğini Söyledi

RE:WIRED 2021: Timnit Gebru, Yapay Zekanın Yavaşlaması Gerektiğini Söyledi

Yapay zeka araştırmacıları Bir hesap verebilirlik sorunuyla karşı karşıyasınız: Karar verirken kararların sorumlu olmasını nasıl sağlamaya çalışıyorsunuz? yapıcı sorumlu bir kişi değil, bir algoritma mı? Şu anda, karar vermeyi otomatikleştirecek güce ve kaynaklara sahip olan yalnızca bir avuç insan ve kuruluş var.

Kuruluşlar, bir krediyi onaylamak veya bir sanığın cezasını şekillendirmek için yapay zekaya güveniyor. Ancak bu akıllı sistemlerin üzerine inşa edildiği temeller önyargıya açıktır. Verilerden, programcıdan ve güçlü bir şirketin alt satırından gelen önyargı, istenmeyen sonuçlara yol açabilir. Yapay zeka araştırmacısı Timnit Gebru’nun Salı günü RE:WIRED konuşmasında uyardığı gerçek budur.

” diyen şirketler vardı. [to assess] birinin yeniden suç belirleme ihtimali var” dedi. “Bu benim için korkunçtu.”

Gebru, Google’da yapay zeka etiği konusunda uzmanlaşmış bir yıldız mühendisti. Algoritmik ırkçılık, cinsiyetçilik ve diğer önyargılara karşı koruma sağlamakla görevli bir ekibin ortak liderliğini yaptı. Gebru ayrıca kendi alanındaki Siyah insanların katılımını, görünürlüğünü ve sağlığını iyileştirmeyi amaçlayan kar amacı gütmeyen AI in AI’nın kurucu ortağıdır.

Geçen yıl, Google onu zorla çıkardı. Ancak makine öğrenimi algoritmalarından kaynaklanan istenmeyen zararları önlemek için verdiği mücadeleden vazgeçmedi.

Salı günü Gebru, WIRED kıdemli yazarı Tom Simonite ile AI araştırmalarındaki teşvikler, işçi korumalarının rolü ve AI etiği ve hesap verebilirlik için planladığı bağımsız enstitünün vizyonu hakkında konuştu. Merkez noktası: AI’nın yavaşlaması gerekiyor.

“Nasıl inşa edilmesi gerektiğini düşünmeye bile zamanımız olmadı çünkü her zaman sadece yangınları söndürüyoruz” dedi.

Boston banliyölerinde devlet okuluna devam eden Etiyopyalı bir mülteci olarak Gebru, Amerika’nın ırksal uyumsuzluğunu hemen fark etti. Gebru, bu yılın başlarında Simonite’e verdiği demeçte, derslerde ırkçılığa geçmiş zamanda atıfta bulunuldu, ancak bu gördükleriyle örtüşmüyordu. Teknoloji kariyerinde defalarca benzer bir yanlış hizalama buldu.

Gebru’nun profesyonel kariyeri donanımda başladı. Ancak çeşitliliğin önündeki engelleri görünce rotasını değiştirdi ve çoğu AI araştırmasının zaten marjinalleştirilmiş gruplara zarar verme potansiyeline sahip olduğundan şüphelenmeye başladı.

“Bunun birleşmesi beni farklı bir yöne götürdü, bu da AI’nın olumsuz toplumsal etkilerini anlamaya ve sınırlamaya çalışmak” dedi.

Gebru, iki yıl boyunca Google’ın Etik Yapay Zeka ekibine bilgisayar bilimcisi Margaret Mitchell ile birlikte liderlik etti. Ekip, Google’ın ürün ekipleri için AI kazalarına karşı koruma sağlayacak araçlar oluşturdu. Ancak zamanla Gebru ve Mitchell, toplantıların ve e-posta ileti dizilerinin dışında bırakıldıklarını fark ettiler.

Haziran 2020’de GPT-3 dil modeli piyasaya sürüldü ve bazen tutarlı bir düzyazı oluşturma yeteneği sergilendi. Ancak Gebru’nun ekibi, etrafındaki heyecandan endişe duyuyor.

Gebru, popüler düşünceyi hatırlatarak, “Daha büyük ve daha büyük ve daha büyük dil modelleri oluşturalım” dedi. “’Lütfen duralım ve bir saniyeliğine sakinleşelim ki artıları ve eksileri ve belki bunu yapmanın alternatif yollarını düşünelim’ gibi olmamız gerekiyordu.”

Ekibi, dil modellerinin etik sonuçları hakkında “Stochastic Papağanların Tehlikeleri Üzerine: Dil Modelleri Çok Büyük Olabilir mi?” başlıklı bir makalenin yazılmasına yardımcı oldu.

Google’daki diğerleri mutlu değildi. Gebru’dan makaleyi geri çekmesi veya Google çalışanlarının adlarını kaldırması istendi. Şeffaflık talebiyle karşılık verdi: Kim bu kadar sert bir eylem talep etmişti ve neden? İki taraf da kıpırdamadı. Gebru, doğrudan raporlarından birinden “istifa ettiğini” öğrendi.

RELATED ARTICLES

CEVAP VER

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments