Neural Networks ve Deep Learning Nedir?

neural networks

Neural Networks Tarihi

Son 10 yılda çok iyi performans gösteren yapay zeka sistemleri (akıllı telefonlardaki konuşma tanıma, Google Translate vs.), “deep learning” adlı bir teknikten yararlanıyor. Aslında deep learning, yapay zeka alanında 70 yıldan beri kullanılan Neural Networks‘un yeni adıdır.

Neural Networks kavramı ilk olarak 1944 yılında Chicago Üniversitesi’nden iki araştırmacı Warren McCullough ve Walter Pitts tarafından ortaya atılmıştır. 1952 yılında bu iki araştırmacı MIT (Massachusetts Institute of Technology)’de ilk bilişsel bilim dalını kurmuşlardır.

Neural Networks, bir yıl sonra MIT Yapay Zeka Laboratuarı’nın eşbaşkanları haline gelecek olan MIT matematikçilerinin Marvin Minsky ve Seymour Papert tarafından çürtüldükleri 1969 yılına kadar hem sinirbilim hem de bilgisayar bilimlerinde önemli bir araştırma alanıydı.

Neural Networks, 1980’lerde yeniden dirildi ve yeni yüzyılın ilk on yılında tekrar moda olmaya başladı. Hatta ikinci dönüşü grafik çiplerinin artan işlemci ihtiyaçları için biçilmiş kaftan gibi oldu.

“Bilimdeki fikirlerin biraz virüs salgınlarına benzediği fikri var.” diyor MIT Center for Brains, Minds, and Machines direktörü Tomaso Poggio;  “Görünürde beş veya altı temel grip virüsü türü var ve görünüşe göre her biri yaklaşık 25 yıllık bir süre ile geri geliyor. İnsanlar enfekte olurlar ve bağışıklık geliştirirler ve dolayısıyla önümüzdeki 25 yıl boyunca enfekte olmazlar. Ve sonra aynı virüs türü tarafından enfekte olmaya hazır yeni bir nesil gelir. Bilimde insanlar bir düşünceye aşık olur, heyecanlı olur, ölüme sürükler ve sonra aşılanırlar – bundan bıkarlar. Dolayısıyla fikirlerin periyodik olması gerekir!”

Neural Networks Nasıl Çalışır?

Neural Networks, bilgisayarın eğitim örneklerini analiz ederek bazı görevleri yapmayı öğrendiği makine öğrenimini gerçekleştirmenin bir aracıdır. Örneğin bir nesne tanıma sistemi, binlerce otomobil, ev, kahve fincanı vb.  gibi etiketlenmiş resimlerden beslenir ve görüntülerde belli etiketlerle sürekli olarak ilişkilendirilen görsel desenleri bulabilir.

İnsan beyni modelli bir Neural Networks, yoğun şekilde birbirine bağlanmış milyonlarca basit işlem düğümünden oluşur. Günümüzdeki Neural Network’lerin çoğu düğüm katmanları halinde düzenlenir ve verilerin yalnızca bir yönde hareket ettiği “ileri besleme (feed-forward)” yöntemi kullanılır. Her bir düğüm noktası, altındaki katmandan veriyi aldığı birkaç düğümle ve veri gönderdiği üst katmandaki birkaç düğümle bağlanabilir.

Bir düğüm noktası, gelen bağlantılarının her biri için “ağırlık” olarak bilinen bir sayı atar. Ağ etkin olduğunda, düğüm, bağlantılarının her birinden farklı bir veri öğesi alır ve ilişkili ağırlık ile çarpar . Daha sonra, sonuçları bir araya getirerek tek bir sayı üretir. Bu sayı bir eşik değerinin altında ise, düğüm bir sonraki katmana veri aktarmaz. Eğer sayı eşik değerini aşarsa, düğüm noktası aktive olur ve giden bağlantıların tümü boyunca elde ettiği sonuçları iletir.

Bir Neural Networks öğrenmeye başladığında, ağırlık ve eşiklerinin tümü başlangıçta rastgele değerlere ayarlanır. Öğrenme verileri, alt katmana (giriş katmanı) gönderilir ve sonraki katmanlardan geçer, kat kat artar ve karmaşık yollarla eklenir, nihayetinde çıkış katmanında kökten değişime uğrar. Öğrenme sırasında ağırlık ve eşikler aynı verilere sürekli ayarlanır.

Zihin ve Makineler

1944’de McCullough ve Pitts tarafından tanımlanan Neural Networks’ün “eşik değerleri ve ağırlıkları” vardı, ancak bunlar katmanlara yerleştirilemedi ve araştırmacılar herhangi bir öğrenme mekanizması ortaya koyamadı. McCullough ve Pitts’in gösterdiğine göre, bir Neural Networks, prensip olarak, dijital bir bilgisayarın işlevini yapabiliyordu. Sonuç bilgisayar bilimlerinden daha fazla nörobilimdi: Asıl nokta ise, insan beyninin bir bilgi işlem cihazı olarak düşünülebileceğini önermekti.

Neural Networks, nevrofizyolojik araştırmalar için değerli bir araç olmaya devam etmektedir. Örneğin, belirli ağ düzenleri veya kuralları insan nöroanatomisi ve bilişinin gözlemlenen özelliklerini, beynin bilgiyi nasıl işlediği konusunda bir şeyler yakaladıklarının bir göstergesi olarak yeni eşik değerleri ve ağılıklar üretmiştir.

İlk öğrenebilir Neural Networks olan “The Perceptron“, Cornell Üniversitesi’nden psikolog Frank Rosenblatt tarafından 1957’de tanıtıldı. The Perceptron‘un tasarımı, giriş ile çıkış arasına giren sadece bir katman olması dışında, modern sinir ağıyla benzerdi. Ayrıca bu tek katmanın ağırlık ve eşik değerleri ayarlanabiliyordu.

The Perceptron, Minsky ve Papert’in “Perceptrons” başlıklı bir kitap yayınladığı 1959 yılına kadar hem psikolojide, hem de bilgisayar bilimlerinde aktif bir araştırma alanıydı. Bu araştırmalar, The Perceptron üzerinde yaygın hesaplamalar yürütmenin pratik olarak çok zaman alacağını gösteriyordu.

“Tabii ki, bu kısıtlamaların hepsi biraz daha karmaşık, örneğin iki katmanlı makineler alırsanız kaybolacaktır” diyor Poggio. Fakat 1959 yılında, Perceptrons kitabı Neural Networks araştırması üzerinde kötü bir etkiye sahipti.

Tekerrür

1980’lerde araştırmacılar, Minsky ve Papert’in koyduğu sınırlamaları ortadan kaldıran ve birden fazla katmanı olan Neural Networksların ağırlık ve eşiklerini değiştirebilen algoritmalar geliştirdiler. İşte bu Neural Networks’un Rönesansıydı.

Fakat 1980’lerde, Neural Networks konusunda tatmin edici olmayan bir şeyler vardı. Yeterli miktardaki öğrenme, bir Neural Networks’un ayarlarını, veriyi yararlı bir şekilde sınıflandırabileceği bir noktaya kadar revize edebilir. Ancak bu ayarlar ne anlama gelir?

Son yıllarda, bilgisayar bilimcileri ustaca yöntemlerle Neural Networks tarafından benimsenen stratejileri ortaya çıkarmıştır. Fakat 1980’lerde, Neural Networks’ların stratejileri çözülemedi. 21. yüzyıla geri dönersek, Neural Networks’ler, Machine Learning’e alternatif bir yaklaşım olan Destek Vektör Makineleri (Support Vector Machine) gölgesinde kalmaktadır.

Neural Network’lerin yeniden gündeme gelmesi bilgisayar oyun endüstrisinden kaynaklanmaktadır. Günümüz video oyunlarının karmaşık görüntüleri ve hızlı temposu güçlü GPU (Graphics Processing Unit)’ya ihtiyaç duymaktadır. GPU’lar binlerce basit işlemci çekirdeğini tek bir çip üzerinde paketlerler. Bu yüzden araştırmacıların GPU mimarisinin Neural Networks mimarisine benzediğini anlamaları uzun sürmememiştir.

Modern GPU’lar 1960’larda tek katmanlı, 1980’lerde iki-üç katlı olmaktan günümüzde 10-15 hatta 50 katmana kadar evrilmiştir. Bu arada Deep Learning’in Deep’i katmanların derinliğini ifade eder. Son zamanlardaki yapay zeka araştırmalarının hemen hemen her alanında Deep Learning kullanılmaktadır.

Sonuç

Cevaplanması gereken teorik sorular hala çok fazla, fakat gelişen teknoloji ile 70 yıllık Neural Networks döngüsü kırılabilecek gibi duruyor.

Bu yazı MIT tarafından yayınlanan yazının tercüme edilmiş halidir.

 

Görkem Güray

Author: Görkem Güray

Elektrik-Elektronik mühendisiyim. Bilgisayar ve yazılım başta olmak üzere gelişen teknolojiyi takip etmeyi severim. İlginç veya yazmaya değer bulduğum konuları patlatbi.net üzerinde yayınlıyorum.

Kimler Neler Demiş?

avatar
  Subscribe  
Bildir