Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
11. Clements, M.P. ve Hendry, D.F. (1993), “ On the Limitations of Comparing
Mean Squared Forecast Errors”, Journal of Forecasting, 12, 617-638.
12. ___ (1988), “ Neural Network Study”, DARPA.
13. Dickey, D. ve Fuller, W. A. (1979), “ Distribution of the Estimates for
Autoregressive Time Series With a Unit Root”, Journal of the American
Statistical Association, 74, 427-431.
14.
Dickey, D. ve Fuller, W. A. (1981), “ Likelihood Ratio Statistics for
Autoregressive Time Series with a Unit Root”, Econometrica, 49, 1057-1072.
15. Diebold, F.X. (1993), “ On the Limitations of Comparing Mean Square Forecast
Errors: Comment”, Journal of Forecasting, 12, 641-642.
16.
Diebold, F. X., and Lopez. J. A. (1995), “ Forecast Evaluation and
Combination”, Research Paper, 9525, Federal Reserve Bank of New York.
17. Diebold, F. X. ve Mariano, R. (1995), “ Comparing Predictive Accuracy”,
Journal of Business and Economic Statistics, 13, 253-264.
18. El Shazly, M. R. ve El Shazly, H. E. (1998), “ Comparing the Forecasting
Performance of Neural Networks and Forward Exchange Rates”, Journal of
Multinational Financial Management, 7, 345-356.
19. Enders, W. (1995), Applied Econometric Time Series, John Wiley & Sons, Inc.
20. Gujarati, D. N. (1995), Basic Econometrics, McGraw-Hill, Inc.
21. Gülseçen, S. (1993), “ Yapay Sinir Ağları İşletme Alanında Uygulanması ve Bir
Örnek Çalışma”, Doktora Tezi, İstanbul Üniversitesi.
22. Hamilton, J. D. (1994), Time Series Analysis, Princeton University Press.
23. Harvey, A. (1989), Forecasting, Structural Time Series Models, and the Kalman
Filter, Cambridge: Cambridge University Press.
24. Haykin, S. (1999), Neural Networks A Comprehensive Foundation, Prentice
Hall International, Inc.
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
93
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
25. Heinemann, M. (2000), “ Adaptive Learning of Rational Expectations Using
Neural Networks”, Journal of Economic Dynamics & Control, 24, 1007-1026.
26. Hill, T., Marquez, L., O’Connor, M. ve Remus, W. (1994), “ Artificial Neural
Network Models for Forecasting and Decision Making”, International Journal of
Forecasting, 10, 5-15.
27.
Janacek, G. ve Swift, L. (1993), Time Series Forecasting, Simulation,
Applications, Ellis Horwood Limited.
28. Kadılar, C. (2000), Uygulamalı Çok Değişkenli Zaman Serileri Analizi,
Hacettepe Üniversitesi.
29. Kohonen, T. (1982), “ Self-organised Formation of Topologically Correct
Feature Maps”, Biological Cybernetics, 43, 59-69.
30. Kramer, A. H. ve Sangiovanni-Vincentelli, A. (1989), “ Efficient Parallel
Learning Algorithms for Neural Networks”, Advances in Neural Information
Processing Systems, 1, 40-48.
31. Leung, M. T., Daouk, H. ve Chen, A. (2000), “ Forecasting Stock Indices: A
Comparison of Classification and Level Estimation Models”, International
Journal of Forecasting, 16, 173-190.
32. Malsburg, C. (1973), “ Self-organisation of Orientation Sensitive Cells in the
Striate Cortex”, Kybernetik, 14, 85-100.
33. McCullogh, W. S. ve Pitts, W. (1943), “ A Logical Calculus of the Ideas
Immanent in Nervous Activity”, Bulletin of Mathematical Biophysics, 5, 115-
133.
34. Merton, R. C. ve Henriksson, R. D. (1981), “ On Market Timing and Investment
Performance 2: Statistical Procedures for Evaluating Forecasting Skills”,
Journal of Business, 54, 513-433.
35. Minsky, M. L. ve Papert, S. A. (1969), Perceptrons, Cambridge, MA: MIT
Press.
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
94
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
36. Montgomery, D. C., Johnson, L. A. ve Gardiner, J. S. (1990), Forecasting &
Time Series Analysis, McGraw Hill, Inc.
37. Parker, D. B. (1987), “ Optimal Algorithms For Adaptive Networks: Second
Order Back Propagation, Second Order Direct Propagation, and Second Order
Hebbian Learning”, IEEE 1st International Conference on Neural Networks, 2,
953-600, San Diego, CA.
38.
Rumelhart, D. E., Hinton, G. E. ve Williams, R. J. (1986), “ Learning
Representations of Back-propagation Errors”, Nature (London), 323, 533-536.
39. Sims, C. (1980), “ Macroeconomics and Reality”, Econometrica, 48, 1-49.
40.
Stekler, H O. (1994), “ Are Economic Forecasts Valuable?”, Journal of
Forecasting, 13, 495-505.
41. Swanson, N. R. ve White, H. (1997), “ Forecasting Economic Time Series Using
Flexible Versus Fixed Specification and Linear Versus Nonlinear Econometric
Models”, International Journal of Forecasting, 13, 439-461.
42. Tkacz, G. (2001), “ Neural Network Forecasting of Canadian GDP Growth”,
International Journal of Forecasting, 17, 57-69.
43. Üngör, A. (1998), “ Yapay Sinir Ağları ve Box-Jenkins Modeli Kullanarak Döviz
Kuru Tahmini”, Yüksek Lisans Tezi, Orta Doğu Teknik Üniversitesi.
44. Wegmann, G. (2000), “ Future Extraction With Hybrid Neural Networks”,
Research Notes in Economics & Statistics, Deutsche Bank Research.
45. Willshaw, D. J. ve Malsburg, C. (1976), “ How Patterned Neural Connections
Can Be Set Up By Self-organisation”, Proceedings of the Royal Society of
London Series B, 194, 431-445.
46. Yıldız, B. (2001), “ Finansal Başarısızlığın Öngörülmesinde Yapay Sinir Ağı
Kullanımı ve Halka Açık Şirketlerde Ampirik Bir Uygulama”, İMKB Dergisi,
17, 51-68
47. Zurada, J. M. (1992), Introduction to Artificial Neural Systems, West St. Paul.
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
95
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Ek 1. Durdurma Kriteri
Ağırlık ayarlama (öğrenme) sürecini bir noktada durdurmak için
kullanılabilecek bazı makul kriterler vardır. Bu tür bir kriteri formüllemek için hata
yüzeyine ait yerel veya genel minimum değerlerden yararlanılmaktadır. w* ağırlık
vektörünün bir minimum değeri (yerel veya genel) gösterdiği düşünülürse, w*
vektörünün minimum noktayı göstermesi için gerekli şart, g(w) değişme (gradient)
vektörünün w=w* noktasında sıfır değeri almasıdır. Buna göre, Geri Besleme
öğrenme süreci için bir yakınsama kriteri oluşturulabilmektedir (Kramer ve
Sangiovanni-Vincentelli, 1989).
“Değişme vektörünün Euclidean normu yeterince küçük bir eşiğe ulaşınca geri
besleme algoritmanın yakınsadığı söylenebilir.”
Bu yakınsama kriterinin dezavantajı, başarılı bir yakınsama için öğrenme
süresinin uzun olabilmesidir. Ayrıca, değişme vektörünün hesaplanmasını
gerektirmesi de diğer bir dezavantaj olarak görülebilir. Hata ölçüsünün (maliyet
fonksiyonu olarak) w=w* noktasında durağan olmasını gerektiren özelliğin
kullanılması ile başka bir kriter oluşturulabilir.
“Bir döngü (epoch) için ortalama hata karesindeki değişmenin mutlak değeri
yeterince küçüldüğünde geri besleme algoritmanın yakınsadığı söylenebilir.”
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
96
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Bu kriterde, ortalama hata karesindeki değişme için minimum değer
araştırmacı tarafından belirlenmektedir. Ayrıca, bazı durumlarda bu yöntem
öğrenme işleminin erken durdurulmasına neden olabilmektedir. Yakınsama için,
teorik olarak kanıtlanmış başka bir kriter daha vardır. Bu kriterde, her öğrenme
döngüsünden sonra ağın genelleme performansı test edilir ve öğrenme işlemi bu
genelleme performansı yeterli bir düzeye ulaştığında sona erdirilir.
31
31
Bu kriterin detayı için bakınız: Haykin (1999), Bölüm 4.14
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
97
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Ek 2. YSA’ların Çalışma Şekli İçin Örnek Çözüm
0.0
0.2
0.4
0.6
0.8
1.0
0.0
0.2
0.4
0.6
0.8
Örneklem
Şekil.2
0.0
0.2
0.4
0.6
0.8
1.0
0.0
0.2
0.4
0.6
0.8
Gerçek Fonksiyon
Şekil.1
Şekil.1’de tahmin edilmek istenen doğrusal olmayan bir yapı, Şekil.2’de ise
tahmin edilecek bu yapıdan rasgele elde edilmiş gözlemler gösterilmektedir.
Şekillerin x-eksenlerini girdi olarak kullanarak, Şekil.2’deki gözlemleri tahmin
etmek için basit bir ileri besleme YSA oluşturulmaktadır. Oluşturulan bu YSA
modeli Şekil.3’te verilmektedir. Bir girdi tabakası, bir gizli tabakası ve bir de çıktı
tabakası olan bu iki tabakalı ileri besleme ağ girdi ve çıktı tabakalarında birer, gizli
tabakasında ise iki nörona sahiptir. Bu YSA mimarisi, dışsal etkileri içeren sapma
değerinin de eklenmesiyle tahmin edildiğinde Şekil.3’teki mimari ortaya
çıkmaktadır. Tam bağlantı içeren bu yapıda okların yanındaki rakamlar tahmin
edilen ilgili bağlantı ağırlıklarını göstermektedir. Basit bir şekilde tahmin edilen bu
modelin örneklem içi öngörüleri Şekil.4’te örnek gözlemlerle karşılaştırmalı olarak
verilmektedir. Şekilden de görülebileceği gibi gizli nöronlara sahip bir ileri besleme
YSA (basit olmasına rağmen) doğrusal olmayan bir yapıyı oldukça iyi bir şekilde
tanımlayabilmektedir.
32
0.0
0.2
0.4
0.6
0.8
1.0
0.0
0.2
0.4
0.6
0.8
0.0
0.2
0.4
0.6
0.8
1.0
0.0
0.2
0.4
0.6
0.8
Şekil.4
Örneklem
Tahmin
1
1.01
3.92
3.25
-4.48
-7.29
-7.47
4.50
Şekil.3
Y
X
32
Bu örnek çözüm Balkin (2001)’den alınmıştır.
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
98
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Ek 3. Gizli Nöron Sayısı İçin Üst Limit Kriteri
Eldeki, eğitme için kullanılan veri setinin genişliği, gizli tabakalardaki nöron
sayısına bir üst limit oluşturabilmektedir. Bu üst limitin belirlenmesinde
kullanılabilecek bir yöntem şu şekilde özetlenebilir:
Üst limiti hesaplamak için, eğitme setindeki girdi-çıktı ikililerinin sayısı
kullanılır. Bu sayı, ağdaki toplam girdi ve çıktı nöronu sayısına bölünür. Elde edilen
sonuç, bir ölçeklendirme katsayısı (genellikle 5Burada, daha büyük ölçeklendirme katsayısının daha fazla hata içeren (noisy) veri
seti için kullanıldığı söylenebilir. Hatta, aşırı derecede hata içeren veri seti için çok
daha büyük katsayılar (örneğin 20 veya 50) kullanılabilmektedir. Diğer taraftan,
hemen hemen hiç hata içerilmemesi durumunda ise katsayı 2 seviyesine kadar
indirilebilir. Bu noktada, veri setine yönelik analiz önem kazanmaktadır. Bu
yöntemle, ölçeklendirme katsayısının ne olacağına bağlı olarak kesin bir neticeye
ulaşılamasa da, yaklaşık bir fikir edinmek mümkündür. Ayrıca, genelleme
özelliğinin kaybolabilmesi ve dolayısıyla ağın yeni veriler tanıtıldığında kullanışsız
kalması sonucunu doğurabileceğinden, bir gizli tabakadaki nöron sayısının çok
fazla olmaması yararlı olacaktır.
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
99
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Ek 4. Öğrenme Kuralları
Yapay Sinir Ağlarında çok sayıda öğrenme kuralı kullanılmaktadır. Bu
öğrenme kurallarının büyük çoğunluğu en eski ve en çok bilinen öğrenme kuralı
olan Hebb Kuralının bir versiyonudur. Bunların yanında, farklı öğrenme kuralı
fonksiyonları da vardır ve bu konuda çalışmalar sürmektedir. Bazı araştırmacılar
temel amaç olarak biyolojik öğrenmeyi modellemenin peşindedirler. Bazıları ise
eldeki öğrenme hakkındaki bilgilerin bir şekilde uyarlanmasına çalışmaktadır. Her
iki noktada da, sinirsel işlemin gerçekte nasıl olduğuna yönelik bilgiler oldukça
kısıtlıdır. Dolayısıyla öğrenme, kullanılmakta olan öğrenme kurallarının ima
ettiğinden çok daha komplikedir. Kullanılmakta olan bazı önemli öğrenme kuralları
arasında Hebb Kuralı, Hopfield Kuralı, Delta Kuralı, Eğimli Değişim (Gradient
Descent) Kuralı ve Kohonen Öğrenme Kuralı sayılabilir. Delta Kuralı metin içinde
açıklanmaktadır; burada diğer öğrenme kuralları için bazı temel bilgiler
verilmektedir.
Hebb Kuralı: Hebb (1949) tarafından tanımlanmış olan bu kural ilk ve en çok
bilinen öğrenme kuralıdır. Temel kural şu şekildedir: Bir nöron başka bir nörondan
girdi alırsa ve iki nöron da yüksek derecede aktifse (yani matematiksel olarak aynı
işarete sahipse) nöronlar arasındaki bağlantının ağırlığı artırılmalıdır.
Hopfield Kuralı: Bir temel farklılık dışında Hebb Kuralına benzemektedir.
Temel farklılık ise bağlantı ağırlığında yapılacak değişikliğin büyüklüğünü de
belirlemesidir. Buna göre, girdi ve istenilen çıktının ikisi de aktifse veya ikisi de
aktif değilse, bağlantı ağırlığı öğrenme oranı kadar artırılır, aksi durumda ise
öğrenme oranı kadar azaltılır.
Eğimli Değişim Kuralı: Bu kurala göre, Delta Kuralında olduğu gibi, delta
hatanın modifiye edilmesi için transfer fonksiyonunun türevi kullanılmaktadır.
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
100
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Eğimli Değişim Kuralının farklılığı, öğrenme oranına orantılı bir ek sabit değerin
son değiştirme faktörüne eklenmesidir. Bağlantı ağırlığı, bu ek değerli faktöre göre
değiştirilir. Bu kural, yavaş bir yakınsama sağlamasına rağmen yaygın olarak
kullanılmaktadır.
Kohonen Öğrenme Kuralı: Kohonen (1982) tarafından geliştirilen bu kural
biyolojik sistemlerdeki öğrenme sisteminden esinlenilmiştir. Bu yöntemde, işlem
elemanlarının, ağırlıkları ayarlamak (öğrenmek) için rekabet ettikleri
düşünülmektedir. En uygun çıktıya sahip işlem elemanı diğerlerine göre baskın olur
ve sadece bu nöronun çıktı sağlaması söz konusudur. Kendi kendine öğrenme (self-
organising) olarak da bilinen bu kural özellikle dağılımlara yönelik çalışmalarda
kullanılmaktadır fakat teorik alt yapısının tam gelişmemiş olmasından dolayı
uygulamada henüz yaygınlık kazanmamıştır.
Burada, en çok bilinen öğrenme kuralları hakkında temel bilgiler
sunulmaktadır. Öğrenme kuralları hakkında daha detaylı bilgi için Haykin
(1999)’dan yararlanılabilir.
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
101
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Ek 5. XOR Problemi
Tek tabaklı Perceptron (ileri besleme ağ) gizli nöronlar içermez, sadece çıktı
tabakasına sahiptir. Bu yüzden, doğrusal olarak ayrıştırılamayan girdi yapılarını
sınıflandıramaz yani doğrusal olmayan yapıları belirleyemez. Halbuki, doğrusal
olmayan yapılar ile hemen hemen her konuda karşılaşılabilmektedir. Bu durum,
XOR (Exclusive OR) probleminin basitleştirilmiş bir hali ile örneklenebilmektedir.
Bu basitleştirilmiş yapı aşağıdaki şekilde sunulmaktadır.
Şekilde açıklanan fonksiyon, doğrusal olarak ayrıştırılamayan bir yapı
içermektedir. 1969 yılında Minsky ve Papert, yazdıkları kitapta bu tür bir yapının
tek tabakalı Perceptron ile modellenemediğini ve dolayısıyla sorunlu olduğunu
göstermişlerdir. YSA literatüründe XOR Problemi olarak adlandırılan bu sorun
YSA üzerine çalışmaları durma noktasına getirmiştir.
Daha sonra, Touretzky ve Pomerleau (1989)
33
XOR probleminin YSA’larda
gizli nöronlar kullanılarak yani çok tabakalı ağlar yardımıyla aşılabildiğini
göstermişlerdir. Bu şekilde, YSA teknolojisi ile doğrusal olmayan yapıların da
sınıflandırılabildikleri ortaya konulmaktadır.
34
33
Bakınız: Haykin (1999)
34
XOR Problemi ile ilgili daha detaylı bilgi için bkz. Haykin (1999) ve Zurada (1992).
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
102
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
Ek 6. Bağımlı ve Açıklayıcı Değişkenlerin İkili Grafikleri
Grafik 1: Fiyat ve Kur Serileri Artış Oranları (%)
-20
0
20
40
60
86 87 88 89 90 91 92 93 94 95 96 97 98 99 00 01
P
E
Grafik 2: Fiyat ve M2Y Serileri Artış Oranları (%)
-10
0
10
20
30
86 87 88 89 90 91 92 93 94 95 96 97 98 99 00 01
P
M
Grafik 3: Üretim ve Fiyat (İmalat San.) Serileri Artış Oranları (%)
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
103
Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği
-30
-20
-10
0
10
20
30
40
86 87 88 89 90 91 92 93 94 95 96 97 98 99 00 01
U
Pi
Grafik 4: Üretim Artış Oranları ve Faiz Oranı (%)
-30
-20
-10
0
10
20
30
40
20
40
60
80
100
120
140
86 87 88 89 90 91 92 93 94 95 96 97 98 99 00 01
U
R
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf
104
Document Outline - Şekil Listesi
- Grafik Listesi
- Geliştirilmiş Dickey-Fuller Durağanlık Testi
- 1. Giriş
- 2. Yapay Sinir Ağları (YSA)
- 2.1. YSA Nedir?
- 2.2. YSA’nın Yapısı: Elemanları ve Mimarisi
- 2.3. YSA Çeşitleri
- 2.4. Niçin YSA?
- 2.5. Tarihsel Gelişim
- 2.6. YSA, İstatistik ve Ekonomi
- 3. Modeller ve Uygulama
- 3.1. YSA Modelleri
- 3.1.1. Fiyat Modeli (YSA-1)
- 3.1.2. Üretim Modeli (YSA-2)
- 3.2. VAR Modelleri
- 3.2.1. Fiyat Modeli (VAR-1)
- 3.2.2. Üretim Modeli (VAR-2)
- 3.3. ARMA Modelleri
- 3.3.1. Fiyat Modeli (ARMA-1)
- 3.3.2. Üretim Modeli (ARMA-2)
- 4. Öngörü Değerlendirmesi ve Model Karşılaştırması
- 4.1. Fiyat Modelleri
- 4.2. Üretim Modelleri
- 5. Sonuç
- Abstract
- Kaynaklar
- Ek 1. Durdurma Kriteri
- Ek 2. YSA’ların Çalışma Şekli İçin Örnek Çözüm
- Ek 3. Gizli Nöron Sayısı İçin Üst Limit Kriteri
- Ek 4. Öğrenme Kuralları
- Ek 5. XOR Problemi
- Ek 6. Bağımlı ve Açıklayıcı Değişkenlerin İkili Grafikleri
Dostları ilə paylaş: |