Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Bu çok geniş YSA çeşitleri yelpazesinde en çok bilinen ve kullanılan ağlar
arasında hata algoritması genellikle geri yayılma ile eğitilen çok tabakalı
perceptron
4
(Geri-Yayılma Ağ – Backpropagation Network), radyal tabanlı
fonksiyon (radial basis function), Hopfield ve Kohonen sayılabilir. Çok fazla çeşit
ve yoğun bir literatür olması nedeniyle, burada tüm ağ çeşitleri hakkında bilgi
verilmemektedir.
5
Bunun yerine, sadece bu çalışmada kullanılan ağ çeşidi detaylı
bir şekilde incelenmektedir.
Bu çalışmada, bir Geri Yayılma Yapay Sinir Ağı (GYYSA) kullanılmaktadır.
Geri yayılma ağlar, çok tabakalı perceptron ile aynı yapıya sahiptirler ve öğrenme
yöntemi olarak geri yayılma algoritması kullanırlar. Dolayısıyla, bu ağlar ileri
besleme ağlar sınıfına girmektedirler. Ayrıca, çalışmada kullanılan ağ kantitatif
verilerle çalışmaktadır ve yönlendirmeli öğrenme yöntemi kullanmaktadır. Bu YSA
türünün seçilmesinin temel sebebi öngörü (prediction) ve sınıflandırma işlemleri
için oldukça uygun olmasıdır. Diğer bir önemli neden ise doğrusal olmayan yapılar
için de oldukça kullanışlı olmasıdır.
İleri beslemeli Geri Yayılma mimarisi 1970’li yıllarda geliştirilmiştir. Bu
mimarinin geliştirilmesinde birbirlerinden bağımsız olarak birkaç araştırmacının
katkıları olmuştur.
6
Asıl katkı ise Rumelhart, Hinton ve Williams (1986) tarafından
yapılmıştır. Ortaya çıkışından sonra, hem etkili hem de çok kullanışlı olmasından
dolayı büyük bir popülarite kazanmıştır ve hala en çok kullanılan ağ türü olarak
bilinmektedir. Çok sayıda farklı uygulama alanında kullanılmaktadır ve en büyük
özelliği doğrusal olmayan yapı içeren problemlerde de etkili olabilmesidir.
Tipik bir geri yayılma ağ mimarisinde bir girdi tabakası, bir çıktı tabakası ve
bu iki tabaka arasında en az bir adet gizli tabaka bulunur. Gizli tabaka sayısı için
4
İleri besleme ağ yapıları YSA literatüründe genellikle Perceptron olarak adlandırılmaktadır.
5
Hem burada listelenen hem de diğer YSA çeşitleri ve ayrıntıları için bkz. Haykin (1999) ve Zurada (1992).
6
Werbor (1990), Parker (1987), Rumelhart, Hinton ve Williams (1986).
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
29
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
herhangi bir kısıt yoktur fakat, genellikle bir ya da iki gizli tabaka kullanılmaktadır.
Bu ağ çeşidinin genel yapısı Şekil 2.11’de örneklenmektedir.
Şekil 2.11: İleri Beslemeli Geri Yayılma Ağların Genel Yapısı
Şekilde, bir girdi tabakası, bir gizli tabaka ve bir çıktı tabakası içeren bir geri
yayılma ağ yapısı örneklenmektedir. Tabakalar halinde düzenlenmiş daireler işlem
elemanlarını yani nöronları temsil etmektedir. Girdi tabakasında üç nöron
bulunmaktadır, yani ağa girdi olarak üç değişken tanıtılmaktadır. Bunun dışında
gizli tabakada iki nöron, çıktı tabakasında ise üç nöron bulunmaktadır. Dolayısıyla,
ağdan üç değişken olarak çıktı alınmaktadır. Girdi tabakasından, gizli tabakaya
iletilen değerler “Ağırlıklar 1” ağırlık seti ile, gizli tabakadan çıktı tabakasına
iletilen değerler ise “Ağırlıklar 2” ağırlık seti ile ağırlıklandırılmaktadır. Ağ
yapısında, kalın oklar anımsama sırasındaki bilgi akışını simgelemektedir.
Anımsama, eğitilmiş bir ağa yeni girdi verilerin sunulması ve çıktısının alınması
işlemidir. Bu yüzden, anımsama işlemi sırasında geri yayılma işlemi kullanılmaz.
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
30
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Geri yayılma sadece eğitme sürecinde kullanılır, dolayısıyla eğitme sürecindeki
bilgi akışı şekildeki tüm oklar ile gösterilmektedir.
Sonuç olarak, bu ağ yapısının eğitme sürecinde iki çeşit sinyal
tanımlanmaktadır. Birbirine zıt yönde çalışan bu iki sinyal çeşidi fonksiyon
sinyalleri ve hata sinyalleri olarak adlandırılmaktadırlar (Parker, 1987). Şekil
2.12’de küçük bir ağ bölümü kullanılarak bu sinyallerin yönleri gösterilmektedir.
Şekilde, sol taraf girdi veri tarafını, sağ taraf çıktı tarafını ve yuvarlaklar ise
nöronları göstermektedir.
Şekil 2.12: Eğitme Sürecindeki Sinyal Çeşitleri
Fonksiyon sinyali, ağa girdi tabakasından giren, ağ içinde ileri doğru yayılan
ve çıktı tabakasından çıktı sinyali olarak çıkan bir girdi sinyalidir. Bu tür bir
sinyalin fonksiyon sinyali olarak adlandırılmasının iki temel sebebi vardır. İlk
olarak, ağın çıktısı için gerekli fonksiyonları uyguladığı kabul edilmektedir. İkinci
sebep ise fonksiyon sinyalinin geçtiği her nöronda, sinyal girdilerin ve o nörona
uygulanan ağırlıkların bir fonksiyonu olarak hesaplanır. Fonksiyon sinyalleri, girdi
sinyalleri olarak da adlandırılmaktadırlar. Hata sinyali ise, fonksiyon sinyalinin
tersine, çıktı tabakasından başlar ve tabaka tabaka geriye doğru yayılır. Hata sinyali
olarak adlandırılmasının sebebi, tüm nöronlarda bir hata tabanlı fonksiyon ile
hesaplanmasıdır.
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
31
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Ağın genel yapısına dönersek, tabaka sayısı ve tabakaların içerdiği işlem
elemanı sayısı ağın performansı açısından önemli ve zor kararlardır. Zor karar
olmalarının sebebi ise herhangi bir uygulama için net bir seçim kriterinin
olmamasıdır. Bunun yerine, uygulamalar sonucunda ortaya çıkmış ve araştırmacılar
tarafından benimsenmiş bazı kurallar vardır. Bu kurallar şu şekilde özetlenebilir:
Kural-1: Girdi ve çıktı veriler arasındaki ilişkinin karmaşıklık derecesi
arttıkça, tabakaların içerdiği işlem elemanı sayısı da artmalıdır.
Kural-2: Modellenen konu değişik safhalara ayrılabiliyorsa, tabaka sayısının
artırılması gerekebilir.
Kural-3: Eldeki eğitme verisinin genişliği, gizli tabakalardaki toplam nöron
sayısı için bir üst limit kriteri oluşturur.
7
Geri yayılma ağlarda çok çeşitli öğrenme kuralı, hata fonksiyonları ve transfer
fonksiyonları kullanılabilmektedir. Öğrenme kuralı olarak genellikle Delta
Kuralı’nın bir varyantı kullanılmaktadır. Delta kuralı, ağın çıktısı ile istenilen çıktı
arasındaki farkın hesaplanması ile başlar. Bu hata kullanılarak bağlantı ağırlıkları
belirli bir doğruluk derecesi faktörüne göre güncellenir. Bu öğrenme
mekanizmasının komplike olan tarafı, hatalı çıktı üretilmesinde hangi işlem
elemanının daha etkili olduğunun belirlenmesi ve hatanın düzeltilmesi için bu işlem
elemanının nasıl değiştirileceğidir. Bu noktada aktif olmayan bir nod hataya sebep
olamaz ve dolayısıyla ağırlıklarını değiştirmeye gerek yoktur. Bu sorunun çözümü
için, eğitme setine ait girdi veriler ağın girdi tabakasına sunulur ve istenilen
çıktılarla karşılaştırma çıktı tabakasında gerçekleştirilir. Öğrenme işlemi süresince,
ağ içinde ileri doğru bir bilgi akışı vardır ve tabaka tabaka her işlem elemanının
çıktısı hesaplanır. Çıktı tabakasına ulaşıldığında, bu tabakanın çıktısı ile istenilen
7
Üst limit kriteri hakkında bilgi Ek 3’te sunulmuştur.
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
32
Dostları ilə paylaş: |