Page 41 - LabMedya - 66
P. 41
w w w .labm edy a. c om TEKNOLOJİ 41
YAPAY ZEKAYA
GÜVENEBİLİR MİYİZ?
Derin öğrenme, konuşma tanıma gelmişti. Böylece 2006’da devasa “derin” Günümüzde birçok otomobil üreticisi özerk RISK FARKINDALIĞI
yazılımlarından tutun da ev kredisi ağlar oluşturmak, onları uçsuz bucaksız araçlar üzerinde çalışıyor ve hepsi değilse
başvurularının değerlendirilmesine kadar veri hacimleriyle eğitmek ve çok sayıda bile birçoğu derin öğrenmeyi algılayıcı Derin ağlardaki şeffaflık eksikliği, diğer
birçok yerde kullanılıyor. Tek sorun, nasıl hızlı bilgisayarı eşgüdüm içinde çalıştırmak verilerini yorumlamak ve yoldaki tehlikeleri makine öğrenimi yaklaşımlarında
işlediğini aslında bilmeyişimiz. Derin mümkün oldu. tanımak için kullanıyor. İyi ama sürücüsüz yok. Birçok uygulama için alternatif
öğrenme her şeyi yapıyor. Yüz tanıma, dil araçlara güvenebilir miyiz? Sonuçta yarı YZ tekniklerini kullanmak ve insanlar
çevirisi, oyun oynama. Bu, yapay zekâ Bu “derin öğrenme” YZ’deki en son özerk sürüş sistemleriyle donatılmış tarafından okunabilir, eksiksiz açıklamalar
(YZ) alanını tepeden tırnağa değiştiren bir devrimin başlangıcıydı. Hâlâ beynin araçların ölümlü trafik kazalarına yol almak olanaklı. Diğer yöntemlerin bir
yaklaşım ve son on yılda YZ’ye damgasını işleyişine dair basitleştirilmiş bir modeli açtığını şimdiden biliyoruz. diğer avantajı da daha iyi bir formal
vurdu. İyi ama derin öğrenme nasıl esas alsa da artık ağlar, yazılımsal olarak (matematiksel) altyapıya sahip olmaları.
çalışıyor? Sürücüsüz otomobiller gibi simüle edilen binlerce ya da milyonlarca New York’ta, Mount Sinai’deki Icahn Tıp
güvenliğin kritik olduğu uygulamalarda işe nöronun oluşturduğu ağlara bel bağlıyordu. Fakültesi’nde araştırmacıların kısa süre Yani elde edilebilecek sonuçların
yarayacağına güvenebilir miyiz? Genellikle Yeterince bilgisayar ve veri sağlanırsa önce yaptığı bir araştırma, hasta kayıtlarını güvenilirliğini çok daha net anlayabiliyoruz
bilgisayar algoritmalarının olabildiğince ağların bu verilerden yola çıkarak uyum analiz etmek için derin öğrenmeden ve bu da söz konusu yöntemlere ne kadar
şeffaf olmasını isteriz ama derin sağlaması ve öğrenmesi mümkün oluyor, faydalanıyor. 2016’da bu derin ağ 75.000 güvenebileceğimizi kestirmemizi sağlıyor.
öğrenmede durum çok farklı. böylece ortaya küçük bir yazılımsal beyin hasta kaydını ve 78 hastalığı inceledikten Fakat bu diğer yöntemler derin öğrenme
çıkıyordu. sonra ileri seviye diyabet, şizofreni ve değil ve o yüzden o kadar da “havalı”
Derin öğrenme, aslında yapay sinir ağı çeşitli kanser vakalarını yüksek isabet bulunmuyor.
(ANN) olarak bilinen eski bir bilgisayar Eğer yüzleri tanımak üzere eğitildiyse bu oranıyla tahmin edebildi. Bu değerli
öğrenme yönteminin akıllıca yeniden küçük beyin, bir kameraya yerleştirilebiliyor çalışma yaşam kurtarabilir. Ama bir doktor, İnsan sürücüler o kadar çok ölüme yol
tasarlanmış hâli. Bilgisayarların ve fotoğraf çektiğinizde yüzleri bularak net hastasına onun şizofreniye yakalanma açıyor ki kendi kendine giden otomobilleri
başlangıcına kadar giden yapay sinir ağları, kalmasını sağlıyor. Eğer konuşma tanımak ihtimalinin yüksek olduğunu çünkü bunu şu ankinden daha güvenli yapmak
beynimizdeki nöron ağını simüle eden üzere eğitildiyse küçük beyin, telefonunuza bir derin ağın söylediğini nasıl anlatabilir? aşılmaz bir problem olmamalı. Yine de
programlar. Bunlar fazlaca basitleştirilmiş yerleştiriliyor ve ne dediğinizi anlıyor. Bir doktor, ortada hiçbir açıklama yokken, derin öğrenmeyi belli uygulamalar için
ve tam olarak gerçek nöronlar gibi önleyici tedavi uygulamak için bir tahmine kullanmanın riskini haklı çıkaramıyoruz
çalışmıyor, yine de bilgisayarların bir şeyler Son on yılda, derin öğrenme bazı şaşırtıcı güvenebilir mi? zira bunun nasıl çalıştığını, ne yapacağını
öğrenmesine izin veriyor.
gelişmelerin önünü açtı. Derin öğrenme en azından iş işten geçmeden
sayesinde artık Siri, Cortana ve Alexa var. Avrupa Birliği bu konuda o kadar endişeli anlayamıyoruz. Yollarımız, araçlarımız,
GIZLI DERINLIKLER
Bu sayede yüz tanıma ve görüntülerin ki daha şimdiden Genel Veri Koruma binalar ve şehirler sürekli değişiyor. Eğer
içeriğinin otomatikman etiketlenmesi Düzenlemesi’ni (GDPR) yürürlüğe soktu. özerk otomobillerimizdeki derin öğrenme
Sinir ağları üzerindeki araştırmalar
1950’lerde başladı ve sinir ağlarının makine mümkün oluyor. Ama her şey güllük Bu, makine öğrenimiyle ilgili haklarımızı beyinlerinin nasıl çalıştığını bilemezsek,
öğrenimindeki bazı diğer yaklaşımlar kadar gülistanlık değil. Bu devasa sinir ağları da düzenliyor. Mayıs 2018 itibariyle Avrupa test edilmedikleri şeylerle karşılaştıklarında
Birliği yasasının 22. maddesi, herkesin
biyolojik beyinlerin becerilerini akla getiren
başarılı olmadığı çok geçmeden anlaşıldı. çalışacaklarından nasıl emin olabiliriz?
(Makine öğrenimi, YZ’nin bilgisayarların gerçekten etkileyici özelliklere sahip olsa “tümüyle otomatik işleme dayalı kararlara
verilerden öğrenerek sınıflandırma ve da gerçek bir beynin bir özelliğini daha taraf olmama” ve bir bilgisayar tarafından Avrupa’da bunun yanıtı YZ algoritmaları için
tahmin yapmasına yönelik dalı.) Dolayısıyla paylaşıyor. Bu da şeffaf olmaması. verilen her türlü kararda “nasıl bir mantık yeni düzenlemeler. Fakat sağduyumuzun
da bu alanda başlayan araştırmalar uygulandığına ilişkin anlamlı bilgi edinme” da sesini dinlemeliyiz. Yapay zekâ tek bir
1990’ların başında azalırken, onun yerine BILINMEYENE YOLCULUK hakkı bulunduğunu ifade ediyor. teknoloji değil. Bir milyon farklı uygulamaya
akıllı istatistiğe dayalı öğrenim yöntemleri yönelik belki de bin farklı yaklaşım. Derin
ağırlık kazanmaya başladı. Biyolojik beyinde hâlâ bilginin nasıl Bunlar sağduyulu önlemler ama işin aslı, öğrenme şimdilerin modası olabilir ama
depolandığına ya da kararların nasıl derin öğrenmeyle uyumlu değil. Eğer ev tıpkı tüm diğer teknolojiler gibi önce
Fakat tüm bunlar 20 yıl kadar önce verildiğine ilişkin şaşırtıcı derecede az kredisi başvurunuz bir derin öğrenme test edilmesi ve her bir uygulama için
değişiverdi. Toronto Üniversitesinde şey biliyoruz. Bu işlerin nöronlarla alakalı algoritması tarafından reddedilirse yasal güvenle çalıştığının kanıtlanması gerekiyor.
çalışan ve Google’da Brain Team olduğunu bilsek de bir grup nöronu gösterip olarak açıklama isteme hakkınız var. Ama Yaşamımızı ancak bundan sonra ona
Toronto’yu yöneten İngiliz öncü Geoff “İşte çikolatanın tadını burası hatırlıyor” bunu kanıtlamak imkânsız olabilir. emanet edebiliriz.
Hinton ve İsviçre’deki IDSIA Dalle Molle ya da “Yeni bir diş fırçası alma kararı işte
YZ Enstitüsünden Jürgen Schmidhuber, burada verildi” diyemiyoruz. Google DeepMind’ın en son çalışmaları,
çok daha fazla katman içeren sinir ağlarını bilişsel psikoloji yöntemleri kullanılarak Kaynak:
eğitmenin yepyeni ve daha verimli yollarını Aynı biçimde, devasa bir yapay sinir ağında da bazı açıklamaların yapılabileceğini akla Dr. Peter Bentley – College London Üniversitesi
tanıttılar. Artık ağlar yüzlerce “gizli” bilginin nerede depolandığını ya da yararların getiriyor. Yani sinir ağları üzerinde deneyler Bilgisayar Bilimleri Bölümü’nde onursal profesör ve
katman (bunlar doğrudan algılayıcılara nasıl alındığını bilemiyoruz. Bunlar bizim için yaparak (tıpkı beyinlerimizi anlamak için öğretim üyesi/Popular Science – Eylül 2019.
bağlı olan giriş nöronlarıyla, sonucu adeta birer kara kutu. İçlerini göremiyoruz insanlar üzerinde yaptığımız testler gibi) https://popsci.com.tr/yapay-zekaya-guvenebilir-
sunan çıkış nöronları arasındaki nöron ve bu hiç iyi bir şey değil. Örneğin güvenliğin onların neye tepki verdiğini anlamak miyiz/
sıraları) içerebiliyordu. Nöronları birbirine kritik olduğu teknolojilerin daima çalışacağını mümkün olabilir. Fakat kredi başvurunuz
bağlamanın yeni yolları da eklenince ortaya kanıtlamamız gerekir. Örneğin otomatik giden reddedildiyse ve tek açıklaması “ağ
çok etkili bir sonuç çıkıyordu. Bu büyük trenler var ve onları idare eden yazılımın bazen eğlence aktivitelerine yaptığınız
devrim tam da büyük verinin, bulut bilgi güvenilirliği matematiksel olarak kanıtlandığı harcamaları kılı kırk yararcasına inceliyor”
işlemin ve hızlı işlemcilerin çağına denk için kendimizi onlara teslim edebiliyoruz. olursa pek sevinmeyebilirsiniz.