Avrupa biRLİĞİnde mevduatin korunmasi



Yüklə 72,84 Kb.
Pdf görüntüsü
səhifə12/32
tarix29.05.2018
ölçüsü72,84 Kb.
#46593
1   ...   8   9   10   11   12   13   14   15   ...   32

Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Bu çok geniş YSA çeşitleri yelpazesinde en çok bilinen ve kullanılan ağlar 
arasında hata algoritması genellikle geri yayılma ile eğitilen çok tabakalı 
perceptron
4
 (Geri-Yayılma Ağ – Backpropagation Network), radyal tabanlı 
fonksiyon (radial basis function), Hopfield ve Kohonen sayılabilir. Çok fazla çeşit 
ve yoğun bir literatür olması nedeniyle, burada tüm ağ çeşitleri hakkında bilgi 
verilmemektedir.
5
 Bunun yerine, sadece bu çalışmada kullanılan ağ çeşidi detaylı 
bir şekilde incelenmektedir. 
 
Bu çalışmada, bir Geri Yayılma Yapay Sinir Ağı (GYYSA) kullanılmaktadır. 
Geri yayılma ağlar, çok tabakalı perceptron ile aynı yapıya sahiptirler ve öğrenme 
yöntemi olarak geri yayılma algoritması kullanırlar. Dolayısıyla, bu ağlar ileri 
besleme ağlar sınıfına girmektedirler. Ayrıca, çalışmada kullanılan ağ kantitatif 
verilerle çalışmaktadır ve  yönlendirmeli öğrenme yöntemi kullanmaktadır. Bu YSA 
türünün seçilmesinin temel sebebi öngörü (prediction) ve sınıflandırma işlemleri 
için oldukça uygun olmasıdır. Diğer bir önemli neden ise doğrusal olmayan yapılar 
için de oldukça kullanışlı olmasıdır. 
 
İleri beslemeli Geri Yayılma mimarisi 1970’li yıllarda geliştirilmiştir. Bu 
mimarinin geliştirilmesinde birbirlerinden bağımsız olarak birkaç araştırmacının 
katkıları olmuştur.
6
 Asıl katkı ise Rumelhart, Hinton ve Williams (1986) tarafından 
yapılmıştır. Ortaya çıkışından sonra, hem etkili hem de çok kullanışlı olmasından 
dolayı büyük bir popülarite kazanmıştır ve hala en çok kullanılan ağ türü olarak 
bilinmektedir. Çok sayıda farklı uygulama alanında kullanılmaktadır ve en büyük 
özelliği doğrusal olmayan yapı içeren problemlerde de etkili olabilmesidir. 
 
Tipik bir geri yayılma ağ mimarisinde bir girdi tabakası, bir çıktı tabakası ve 
bu iki tabaka arasında en az bir adet gizli tabaka bulunur. Gizli tabaka sayısı için 
                                                      
4
 İleri besleme ağ yapıları YSA literatüründe genellikle Perceptron olarak adlandırılmaktadır. 
5
 Hem burada listelenen hem de diğer YSA çeşitleri ve ayrıntıları için bkz. Haykin (1999) ve Zurada (1992).  
6
 Werbor (1990), Parker (1987), Rumelhart, Hinton ve Williams (1986). 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
29


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
herhangi bir kısıt yoktur fakat, genellikle bir ya da iki gizli tabaka kullanılmaktadır. 
Bu ağ çeşidinin genel yapısı Şekil 2.11’de örneklenmektedir. 
 
Şekil 2.11: İleri Beslemeli Geri Yayılma Ağların Genel Yapısı  
 
 
Şekilde, bir girdi tabakası, bir gizli tabaka ve bir çıktı tabakası içeren bir geri 
yayılma ağ yapısı örneklenmektedir. Tabakalar halinde düzenlenmiş daireler işlem 
elemanlarını yani nöronları temsil etmektedir. Girdi tabakasında üç nöron 
bulunmaktadır, yani ağa girdi olarak üç değişken tanıtılmaktadır. Bunun dışında 
gizli tabakada iki nöron, çıktı tabakasında ise üç nöron bulunmaktadır. Dolayısıyla, 
ağdan üç değişken olarak çıktı alınmaktadır. Girdi tabakasından, gizli tabakaya 
iletilen değerler “Ağırlıklar 1” ağırlık seti ile, gizli tabakadan çıktı tabakasına 
iletilen değerler ise “Ağırlıklar 2” ağırlık seti ile ağırlıklandırılmaktadır. Ağ 
yapısında, kalın oklar anımsama  sırasındaki bilgi akışını simgelemektedir. 
Anımsama, eğitilmiş bir ağa yeni girdi verilerin sunulması ve çıktısının alınması 
işlemidir. Bu yüzden, anımsama işlemi sırasında geri yayılma işlemi kullanılmaz. 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
30


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Geri yayılma sadece eğitme sürecinde kullanılır, dolayısıyla eğitme sürecindeki 
bilgi akışı şekildeki tüm oklar ile gösterilmektedir. 
 
Sonuç olarak, bu ağ yapısının eğitme sürecinde iki çeşit sinyal 
tanımlanmaktadır. Birbirine zıt yönde çalışan bu iki sinyal çeşidi  fonksiyon 
sinyalleri ve hata sinyalleri olarak adlandırılmaktadırlar (Parker, 1987). Şekil 
2.12’de küçük bir ağ bölümü kullanılarak bu sinyallerin yönleri gösterilmektedir. 
Şekilde, sol taraf girdi veri tarafını, sağ taraf çıktı tarafını ve yuvarlaklar ise 
nöronları göstermektedir. 
 
Şekil 2.12: Eğitme Sürecindeki Sinyal Çeşitleri 
 
 
Fonksiyon sinyali, ağa girdi tabakasından giren, ağ içinde ileri doğru yayılan 
ve çıktı tabakasından çıktı sinyali olarak çıkan bir girdi sinyalidir. Bu tür bir 
sinyalin fonksiyon sinyali olarak adlandırılmasının iki temel sebebi vardır.  İlk 
olarak, ağın çıktısı için gerekli fonksiyonları uyguladığı kabul edilmektedir. İkinci 
sebep ise fonksiyon sinyalinin geçtiği her nöronda, sinyal girdilerin ve o nörona 
uygulanan ağırlıkların bir fonksiyonu olarak hesaplanır. Fonksiyon sinyalleri, girdi 
sinyalleri olarak da adlandırılmaktadırlar. Hata sinyali ise, fonksiyon sinyalinin 
tersine, çıktı tabakasından başlar ve tabaka tabaka geriye doğru yayılır. Hata sinyali 
olarak adlandırılmasının sebebi, tüm nöronlarda bir hata tabanlı fonksiyon ile 
hesaplanmasıdır. 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
31


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Ağın genel yapısına dönersek, tabaka sayısı ve tabakaların içerdiği işlem 
elemanı sayısı  ağın performansı açısından önemli ve zor kararlardır. Zor karar 
olmalarının sebebi ise herhangi bir uygulama için net bir seçim kriterinin 
olmamasıdır. Bunun yerine, uygulamalar sonucunda ortaya çıkmış ve araştırmacılar 
tarafından benimsenmiş bazı kurallar vardır. Bu kurallar şu şekilde özetlenebilir: 
 
Kural-1: Girdi ve çıktı veriler arasındaki ilişkinin karmaşıklık derecesi 
arttıkça, tabakaların içerdiği işlem elemanı sayısı da artmalıdır. 
 
Kural-2: Modellenen konu değişik safhalara ayrılabiliyorsa, tabaka sayısının 
artırılması gerekebilir. 
 
Kural-3: Eldeki eğitme verisinin genişliği, gizli tabakalardaki toplam nöron 
sayısı için bir üst limit kriteri oluşturur.
7
 
Geri yayılma ağlarda çok çeşitli öğrenme kuralı, hata fonksiyonları ve transfer 
fonksiyonları kullanılabilmektedir. Öğrenme kuralı olarak genellikle Delta 
Kuralı’nın bir varyantı kullanılmaktadır. Delta kuralı, ağın çıktısı ile istenilen çıktı 
arasındaki farkın hesaplanması ile başlar. Bu hata kullanılarak bağlantı  ağırlıkları 
belirli bir doğruluk derecesi faktörüne göre güncellenir. Bu öğrenme 
mekanizmasının komplike olan tarafı, hatalı  çıktı üretilmesinde hangi işlem 
elemanının daha etkili olduğunun belirlenmesi ve hatanın düzeltilmesi için bu işlem 
elemanının nasıl değiştirileceğidir. Bu noktada aktif olmayan bir nod hataya sebep 
olamaz ve dolayısıyla ağırlıklarını değiştirmeye gerek yoktur. Bu sorunun çözümü 
için, eğitme setine ait girdi veriler ağın girdi tabakasına sunulur ve istenilen 
çıktılarla karşılaştırma çıktı tabakasında gerçekleştirilir. Öğrenme işlemi süresince, 
ağ içinde ileri doğru bir bilgi akışı vardır ve tabaka tabaka her işlem elemanının 
çıktısı hesaplanır. Çıktı tabakasına ulaşıldığında, bu tabakanın çıktısı ile istenilen 
                                                      
7
 Üst limit kriteri hakkında bilgi Ek 3’te sunulmuştur. 
 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
32


Yüklə 72,84 Kb.

Dostları ilə paylaş:
1   ...   8   9   10   11   12   13   14   15   ...   32




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə