Page 41 - LabMedya - 66
P. 41

w w w .labm edy a. c om                                                                           TEKNOLOJİ              41












         YAPAY ZEKAYA


         GÜVENEBİLİR MİYİZ?








       Derin öğrenme, konuşma tanıma   gelmişti. Böylece 2006’da devasa “derin”   Günümüzde birçok otomobil üreticisi özerk   RISK FARKINDALIĞI
       yazılımlarından tutun da ev kredisi   ağlar oluşturmak, onları uçsuz bucaksız   araçlar üzerinde çalışıyor ve hepsi değilse
       başvurularının değerlendirilmesine kadar   veri hacimleriyle eğitmek ve çok sayıda   bile birçoğu derin öğrenmeyi algılayıcı   Derin ağlardaki şeffaflık eksikliği, diğer
       birçok yerde kullanılıyor. Tek sorun, nasıl   hızlı bilgisayarı eşgüdüm içinde çalıştırmak   verilerini yorumlamak ve yoldaki tehlikeleri   makine öğrenimi yaklaşımlarında
       işlediğini aslında bilmeyişimiz. Derin   mümkün oldu.          tanımak için kullanıyor. İyi ama sürücüsüz   yok. Birçok uygulama için alternatif
       öğrenme her şeyi yapıyor. Yüz tanıma, dil                      araçlara güvenebilir miyiz? Sonuçta yarı   YZ tekniklerini kullanmak ve insanlar
       çevirisi, oyun oynama. Bu, yapay zekâ   Bu “derin öğrenme” YZ’deki en son   özerk sürüş sistemleriyle donatılmış   tarafından okunabilir, eksiksiz açıklamalar
       (YZ) alanını tepeden tırnağa değiştiren bir   devrimin başlangıcıydı. Hâlâ beynin   araçların ölümlü trafik kazalarına yol   almak olanaklı. Diğer yöntemlerin bir
       yaklaşım ve son on yılda YZ’ye damgasını   işleyişine dair basitleştirilmiş bir modeli   açtığını şimdiden biliyoruz.  diğer avantajı da daha iyi bir formal
       vurdu. İyi ama derin öğrenme nasıl   esas alsa da artık ağlar, yazılımsal olarak               (matematiksel) altyapıya sahip olmaları.
       çalışıyor? Sürücüsüz otomobiller gibi   simüle edilen binlerce ya da milyonlarca   New York’ta, Mount Sinai’deki Icahn Tıp
       güvenliğin kritik olduğu uygulamalarda işe   nöronun oluşturduğu ağlara bel bağlıyordu.   Fakültesi’nde araştırmacıların kısa süre   Yani elde edilebilecek sonuçların
       yarayacağına güvenebilir miyiz? Genellikle   Yeterince bilgisayar ve veri sağlanırsa   önce yaptığı bir araştırma, hasta kayıtlarını   güvenilirliğini çok daha net anlayabiliyoruz
       bilgisayar algoritmalarının olabildiğince   ağların bu verilerden yola çıkarak uyum   analiz etmek için derin öğrenmeden   ve bu da söz konusu yöntemlere ne kadar
       şeffaf olmasını isteriz ama derin   sağlaması ve öğrenmesi mümkün oluyor,   faydalanıyor. 2016’da bu derin ağ 75.000   güvenebileceğimizi kestirmemizi sağlıyor.
       öğrenmede durum çok farklı.    böylece ortaya küçük bir yazılımsal beyin   hasta kaydını ve 78 hastalığı inceledikten   Fakat bu diğer yöntemler derin öğrenme
                                      çıkıyordu.                      sonra ileri seviye diyabet, şizofreni ve   değil ve o yüzden o kadar da “havalı”
       Derin öğrenme, aslında yapay sinir ağı                         çeşitli kanser vakalarını yüksek isabet   bulunmuyor.
       (ANN) olarak bilinen eski bir bilgisayar   Eğer yüzleri tanımak üzere eğitildiyse bu   oranıyla tahmin edebildi. Bu değerli
       öğrenme yönteminin akıllıca yeniden   küçük beyin, bir kameraya yerleştirilebiliyor   çalışma yaşam kurtarabilir. Ama bir doktor,   İnsan sürücüler o kadar çok ölüme yol
       tasarlanmış hâli. Bilgisayarların   ve fotoğraf çektiğinizde yüzleri bularak net   hastasına onun şizofreniye yakalanma   açıyor ki kendi kendine giden otomobilleri
       başlangıcına kadar giden yapay sinir ağları,   kalmasını sağlıyor. Eğer konuşma tanımak   ihtimalinin yüksek olduğunu çünkü bunu   şu ankinden daha güvenli yapmak
       beynimizdeki nöron ağını simüle eden   üzere eğitildiyse küçük beyin, telefonunuza   bir derin ağın söylediğini nasıl anlatabilir?   aşılmaz bir problem olmamalı. Yine de
       programlar. Bunlar fazlaca basitleştirilmiş   yerleştiriliyor ve ne dediğinizi anlıyor.  Bir doktor, ortada hiçbir açıklama yokken,   derin öğrenmeyi belli uygulamalar için
       ve tam olarak gerçek nöronlar gibi                             önleyici tedavi uygulamak için bir tahmine   kullanmanın riskini haklı çıkaramıyoruz
       çalışmıyor, yine de bilgisayarların bir şeyler   Son on yılda, derin öğrenme bazı şaşırtıcı   güvenebilir mi?  zira bunun nasıl çalıştığını, ne yapacağını
       öğrenmesine izin veriyor.
                                      gelişmelerin önünü açtı. Derin öğrenme                          en azından iş işten geçmeden
                                      sayesinde artık Siri, Cortana ve Alexa var.   Avrupa Birliği bu konuda o kadar endişeli   anlayamıyoruz. Yollarımız, araçlarımız,
       GIZLI DERINLIKLER
                                      Bu sayede yüz tanıma ve görüntülerin   ki daha şimdiden Genel Veri Koruma   binalar ve şehirler sürekli değişiyor. Eğer
                                      içeriğinin otomatikman etiketlenmesi   Düzenlemesi’ni (GDPR) yürürlüğe soktu.   özerk otomobillerimizdeki derin öğrenme
       Sinir ağları üzerindeki araştırmalar
       1950’lerde başladı ve sinir ağlarının makine   mümkün oluyor. Ama her şey güllük   Bu, makine öğrenimiyle ilgili haklarımızı   beyinlerinin nasıl çalıştığını bilemezsek,
       öğrenimindeki bazı diğer yaklaşımlar kadar   gülistanlık değil. Bu devasa sinir ağları   da düzenliyor. Mayıs 2018 itibariyle Avrupa   test edilmedikleri şeylerle karşılaştıklarında
                                                                      Birliği yasasının 22. maddesi, herkesin
                                      biyolojik beyinlerin becerilerini akla getiren
       başarılı olmadığı çok geçmeden anlaşıldı.                                                      çalışacaklarından nasıl emin olabiliriz?
       (Makine öğrenimi, YZ’nin bilgisayarların   gerçekten etkileyici özelliklere sahip olsa   “tümüyle otomatik işleme dayalı kararlara
       verilerden öğrenerek sınıflandırma ve   da gerçek bir beynin bir özelliğini daha   taraf olmama” ve bir bilgisayar tarafından   Avrupa’da bunun yanıtı YZ algoritmaları için
       tahmin yapmasına yönelik dalı.) Dolayısıyla   paylaşıyor. Bu da şeffaf olmaması.  verilen her türlü kararda “nasıl bir mantık   yeni düzenlemeler. Fakat sağduyumuzun
       da bu alanda başlayan araştırmalar                             uygulandığına ilişkin anlamlı bilgi edinme”   da sesini dinlemeliyiz. Yapay zekâ tek bir
       1990’ların başında azalırken, onun yerine   BILINMEYENE YOLCULUK  hakkı bulunduğunu ifade ediyor.  teknoloji değil. Bir milyon farklı uygulamaya
       akıllı istatistiğe dayalı öğrenim yöntemleri                                                   yönelik belki de bin farklı yaklaşım. Derin
       ağırlık kazanmaya başladı.     Biyolojik beyinde hâlâ bilginin nasıl   Bunlar sağduyulu önlemler ama işin aslı,   öğrenme şimdilerin modası olabilir ama
                                      depolandığına ya da kararların nasıl   derin öğrenmeyle uyumlu değil. Eğer ev   tıpkı tüm diğer teknolojiler gibi önce
       Fakat tüm bunlar 20 yıl kadar önce   verildiğine ilişkin şaşırtıcı derecede az   kredisi başvurunuz bir derin öğrenme   test edilmesi ve her bir uygulama için
       değişiverdi. Toronto Üniversitesinde   şey biliyoruz. Bu işlerin nöronlarla alakalı   algoritması tarafından reddedilirse yasal   güvenle çalıştığının kanıtlanması gerekiyor.
       çalışan ve Google’da Brain Team   olduğunu bilsek de bir grup nöronu gösterip   olarak açıklama isteme hakkınız var. Ama   Yaşamımızı ancak bundan sonra ona
       Toronto’yu yöneten İngiliz öncü Geoff   “İşte çikolatanın tadını burası hatırlıyor”   bunu kanıtlamak imkânsız olabilir.  emanet edebiliriz.
       Hinton ve İsviçre’deki IDSIA Dalle Molle   ya da “Yeni bir diş fırçası alma kararı işte
       YZ Enstitüsünden Jürgen Schmidhuber,   burada verildi” diyemiyoruz.  Google DeepMind’ın en son çalışmaları,
       çok daha fazla katman içeren sinir ağlarını                    bilişsel psikoloji yöntemleri kullanılarak   Kaynak:
       eğitmenin yepyeni ve daha verimli yollarını   Aynı biçimde, devasa bir yapay sinir ağında da   bazı açıklamaların yapılabileceğini akla   Dr. Peter Bentley – College London Üniversitesi
       tanıttılar. Artık ağlar yüzlerce “gizli”   bilginin nerede depolandığını ya da yararların   getiriyor. Yani sinir ağları üzerinde deneyler   Bilgisayar Bilimleri Bölümü’nde onursal profesör ve
       katman (bunlar doğrudan algılayıcılara   nasıl alındığını bilemiyoruz. Bunlar bizim için   yaparak (tıpkı beyinlerimizi anlamak için   öğretim üyesi/Popular Science – Eylül 2019.
       bağlı olan giriş nöronlarıyla, sonucu   adeta birer kara kutu. İçlerini göremiyoruz   insanlar üzerinde yaptığımız testler gibi)   https://popsci.com.tr/yapay-zekaya-guvenebilir-
       sunan çıkış nöronları arasındaki nöron   ve bu hiç iyi bir şey değil. Örneğin güvenliğin   onların neye tepki verdiğini anlamak   miyiz/
       sıraları) içerebiliyordu. Nöronları birbirine   kritik olduğu teknolojilerin daima çalışacağını   mümkün olabilir. Fakat kredi başvurunuz
       bağlamanın yeni yolları da eklenince ortaya   kanıtlamamız gerekir. Örneğin otomatik giden   reddedildiyse ve tek açıklaması “ağ
       çok etkili bir sonuç çıkıyordu. Bu büyük   trenler var ve onları idare eden yazılımın   bazen eğlence aktivitelerine yaptığınız
       devrim tam da büyük verinin, bulut bilgi   güvenilirliği matematiksel olarak kanıtlandığı   harcamaları kılı kırk yararcasına inceliyor”
       işlemin ve hızlı işlemcilerin çağına denk   için kendimizi onlara teslim edebiliyoruz.  olursa pek sevinmeyebilirsiniz.
   36   37   38   39   40   41   42   43   44   45   46