Haberler
Yapay Zekaya Güvenebilir Miyiz?
Tek sorun, nasıl işlediğini aslında bilmeyişimiz. Derin öğrenme her şeyi yapıyor. Yüz tanıma, dil çevirisi, oyun oynama. Bu, yapay zekâ (YZ) alanını tepeden tırnağa değiştiren bir yaklaşım ve son on yılda YZ’ye damgasını vurdu. İyi ama derin öğrenme nasıl çalışıyor? Sürücüsüz otomobiller gibi güvenliğin kritik olduğu uygulamalarda işe yarayacağına güvenebilir miyiz? Genellikle bilgisayar algoritmalarının olabildiğince şeffaf olmasını isteriz ama derin öğrenmede durum çok farklı.
Derin öğrenme, aslında yapay sinir ağı (ANN) olarak bilinen eski bir bilgisayar öğrenme yönteminin akıllıca yeniden tasarlanmış hâli. Bilgisayarların başlangıcına kadar giden yapay sinir ağları, beynimizdeki nöron ağını simüle eden programlar. Bunlar fazlaca basitleştirilmiş ve tam olarak gerçek nöronlar gibi çalışmıyor, yine de bilgisayarların bir şeyler öğrenmesine izin veriyor.
Gizli Derinlikler
Sinir ağları üzerindeki araştırmalar 1950’lerde başladı ve sinir ağlarının makine öğrenimindeki bazı diğer yaklaşımlar kadar başarılı olmadığı çok geçmeden anlaşıldı. (Makine öğrenimi, YZ’nin bilgisayarların verilerden öğrenerek sınıflandırma ve tahmin yapmasına yönelik dalı.) Dolayısıyla da bu alanda başlayan araştırmalar 1990’ların başında azalırken, onun yerine akıllı istatistiğe dayalı öğrenim yöntemleri ağırlık kazanmaya başladı.
Fakat tüm bunlar 20 yıl kadar önce değişiverdi. Toronto Üniversitesinde çalışan ve Google’da Brain Team Toronto’yu yöneten İngiliz öncü Geoff Hinton ve İsviçre’deki IDSIA Dalle Molle YZ Enstitüsünden Jürgen Schmidhuber, çok daha fazla katman içeren sinir ağlarını eğitmenin yepyeni ve daha verimli yollarını tanıttılar. Artık ağlar yüzlerce “gizli” katman (bunlar doğrudan algılayıcılara bağlı olan giriş nöronlarıyla, sonucu sunan çıkış nöronları arasındaki nöron sıraları) içerebiliyordu. Nöronları birbirine bağlamanın yeni yolları da eklenince ortaya çok etkili bir sonuç çıkıyordu. Bu büyük devrim tam da büyük verinin, bulut bilgi işlemin ve hızlı işlemcilerin çağına denk gelmişti. Böylece 2006’da devasa “derin” ağlar oluşturmak, onları uçsuz bucaksız veri hacimleriyle eğitmek ve çok sayıda hızlı bilgisayarı eşgüdüm içinde çalıştırmak mümkün oldu.
Bu “derin öğrenme” YZ’deki en son devrimin başlangıcıydı. Hâlâ beynin işleyişine dair basitleştirilmiş bir modeli esas alsa da artık ağlar, yazılımsal olarak simüle edilen binlerce ya da milyonlarca nöronun oluşturduğu ağlara bel bağlıyordu. Yeterince bilgisayar ve veri sağlanırsa ağların bu verilerden yola çıkarak uyum sağlaması ve öğrenmesi mümkün oluyor, böylece ortaya küçük bir yazılımsal beyin çıkıyordu.
Eğer yüzleri tanımak üzere eğitildiyse bu küçük beyin, bir kameraya yerleştirilebiliyor ve fotoğraf çektiğinizde yüzleri bularak net kalmasını sağlıyor. Eğer konuşma tanımak üzere eğitildiyse küçük beyin, telefonunuza yerleştiriliyor ve ne dediğinizi anlıyor.
Son on yılda, derin öğrenme bazı şaşırtıcı gelişmelerin önünü açtı. Derin öğrenme sayesinde artık Siri, Cortana ve Alexa var. Bu sayede yüz tanıma ve görüntülerin içeriğinin otomatikman etiketlenmesi mümkün oluyor. Ama her şey güllük gülistanlık değil. Bu devasa sinir ağları biyolojik beyinlerin becerilerini akla getiren gerçekten etkileyici özelliklere sahip olsa da gerçek bir beynin bir özelliğini daha paylaşıyor. Bu da şeffaf olmaması.
Bilinmeyene Yolculuk
Biyolojik beyinde hâlâ bilginin nasıl depolandığına ya da kararların nasıl verildiğine ilişkin şaşırtıcı derecede az şey biliyoruz. Bu işlerin nöronlarla alakalı olduğunu bilsek de bir grup nöronu gösterip “İşte çikolatanın tadını burası hatırlıyor” ya da “Yeni bir diş fırçası alma kararı işte burada verildi” diyemiyoruz.
Aynı biçimde, devasa bir yapay sinir ağında da bilginin nerede depolandığını ya da yararların nasıl alındığını bilemiyoruz. Bunlar bizim için adeta birer kara kutu. İçlerini göremiyoruz ve bu hiç iyi bir şey değil. Örneğin güvenliğin kritik olduğu teknolojilerin daima çalışacağını kanıtlamamız gerekir. Örneğin otomatik giden trenler var ve onları idare eden yazılımın güvenilirliği matematiksel olarak kanıtlandığı için kendimizi onlara teslim edebiliyoruz.
Günümüzde birçok otomobil üreticisi özerk araçlar üzerinde çalışıyor ve hepsi değilse bile birçoğu derin öğrenmeyi algılayıcı verilerini yorumlamak ve yoldaki tehlikeleri tanımak için kullanıyor. İyi ama sürücüsüz araçlara güvenebilir miyiz? Sonuçta yarı özerk sürüş sistemleriyle donatılmış araçların ölümlü trafik kazalarına yol açtığını şimdiden biliyoruz.
New York’ta, Mount Sinai’deki Icahn Tıp Fakültesi’nde araştırmacıların kısa süre önce yaptığı bir araştırma, hasta kayıtlarını analiz etmek için derin öğrenmeden faydalanıyor. 2016’da bu derin ağ 75.000 hasta kaydını ve 78 hastalığı inceledikten sonra ileri seviye diyabet, şizofreni ve çeşitli kanser vakalarını yüksek isabet oranıyla tahmin edebildi. Bu değerli çalışma yaşam kurtarabilir. Ama bir doktor, hastasına onun şizofreniye yakalanma ihtimalinin yüksek olduğunu çünkü bunu bir derin ağın söylediğini nasıl anlatabilir? Bir doktor, ortada hiçbir açıklama yokken, önleyici tedavi uygulamak için bir tahmine güvenebilir mi?
Avrupa Birliği bu konuda o kadar endişeli ki daha şimdiden Genel Veri Koruma Düzenlemesi’ni (GDPR) yürürlüğe soktu. Bu, makine öğrenimiyle ilgili haklarımızı da düzenliyor. Mayıs 2018 itibariyle Avrupa Birliği yasasının 22. maddesi, herkesin “tümüyle otomatik işleme dayalı kararlara taraf olmama” ve bir bilgisayar tarafından verilen her türlü kararda “nasıl bir mantık uygulandığına ilişkin anlamlı bilgi edinme” hakkı bulunduğunu ifade ediyor.
Bunlar sağduyulu önlemler ama işin aslı, derin öğrenmeyle uyumlu değil. Eğer ev kredisi başvurunuz bir derin öğrenme algoritması tarafından reddedilirse yasal olarak açıklama isteme hakkınız var. Ama bunu kanıtlamak imkânsız olabilir.
Google DeepMind’ın en son çalışmaları, bilişsel psikoloji yöntemleri kullanılarak bazı açıklamaların yapılabileceğini akla getiriyor. Yani sinir ağları üzerinde deneyler yaparak (tıpkı beyinlerimizi anlamak için insanlar üzerinde yaptığımız testler gibi) onların neye tepki verdiğini anlamak mümkün olabilir. Fakat kredi başvurunuz reddedildiyse ve tek açıklaması “ağ bazen eğlence aktivitelerine yaptığınız harcamaları kılı kırk yararcasına inceliyor” olursa pek sevinmeyebilirsiniz.
Risk Farkındalığı
Derin ağlardaki şeffaflık eksikliği, diğer makine öğrenimi yaklaşımlarında yok. Birçok uygulama için alternatif YZ tekniklerini kullanmak ve insanlar tarafından okunabilir, eksiksiz açıklamalar almak olanaklı. Diğer yöntemlerin bir diğer avantajı da daha iyi bir formal (matematiksel) altyapıya sahip olmaları. Yani elde edilebilecek sonuçların güvenilirliğini çok daha net anlayabiliyoruz ve bu da söz konusu yöntemlere ne kadar güvenebileceğimizi kestirmemizi sağlıyor. Fakat bu diğer yöntemler derin öğrenme değil ve o yüzden o kadar da “havalı” bulunmuyor.
İnsan sürücüler o kadar çok ölüme yol açıyor ki kendi kendine giden otomobilleri şu ankinden daha güvenli yapmak aşılmaz bir problem olmamalı. Yine de derin öğrenmeyi belli uygulamalar için kullanmanın riskini haklı çıkaramıyoruz zira bunun nasıl çalıştığını, ne yapacağını en azından iş işten geçmeden anlayamıyoruz. Yollarımız, araçlarımız, binalar ve şehirler sürekli değişiyor. Eğer özerk otomobillerimizdeki derin öğrenme beyinlerinin nasıl çalıştığını bilemezsek, test edilmedikleri şeylerle karşılaştıklarında çalışacaklarından nasıl emin olabiliriz?
Avrupa’da bunun yanıtı YZ algoritmaları için yeni düzenlemeler. Fakat sağduyumuzun da sesini dinlemeliyiz. Yapay zekâ tek bir teknoloji değil. Bir milyon farklı uygulamaya yönelik belki de bin farklı yaklaşım. Derin öğrenme şimdilerin modası olabilir ama tıpkı tüm diğer teknolojiler gibi önce test edilmesi ve her bir uygulama için güvenle çalıştığının kanıtlanması gerekiyor. Yaşamımızı ancak bundan sonra ona emanet edebiliriz.
Kaynak:
Dr. Peter Bentley – College London Üniversitesi Bilgisayar Bilimleri Bölümü’nde onursal profesör ve öğretim üyesi/Popular Science – Eylül 2019.
https://popsci.com.tr/yapay-zekaya-guvenebilir-miyiz/