Avrupa biRLİĞİnde mevduatin korunmasi



Yüklə 72,84 Kb.
Pdf görüntüsü
səhifə32/32
tarix29.05.2018
ölçüsü72,84 Kb.
#46593
1   ...   24   25   26   27   28   29   30   31   32

Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
11. Clements, M.P. ve Hendry, D.F. (1993), “On the Limitations of Comparing 
Mean Squared Forecast Errors”, Journal of Forecasting, 12, 617-638. 
12. ___ (1988), “Neural Network Study”, DARPA. 
13. Dickey, D. ve Fuller, W. A. (1979), “Distribution of the Estimates for 
Autoregressive Time Series With a Unit Root”,  Journal of the American 
Statistical Association, 74, 427-431. 
14. 
Dickey, D. ve Fuller, W. A. (1981), “Likelihood Ratio Statistics for 
Autoregressive Time Series with a Unit Root”, Econometrica, 49, 1057-1072. 
15. Diebold, F.X. (1993), “On the Limitations of Comparing Mean Square Forecast 
Errors: Comment”, Journal of Forecasting, 12, 641-642. 
16. 
Diebold, F. X., and Lopez. J. A. (1995), “Forecast Evaluation and 
Combination”, Research Paper, 9525, Federal Reserve Bank of New York. 
17. Diebold, F. X. ve Mariano, R. (1995), “Comparing Predictive Accuracy”, 
Journal of Business and Economic Statistics, 13, 253-264. 
18. El Shazly, M. R. ve El Shazly, H. E. (1998), “Comparing the Forecasting 
Performance of Neural Networks and Forward Exchange Rates”,  Journal of 
Multinational Financial Management, 7, 345-356. 
19. Enders, W. (1995), Applied Econometric Time Series, John Wiley & Sons, Inc. 
20. Gujarati, D. N. (1995), Basic Econometrics, McGraw-Hill, Inc. 
21. Gülseçen, S. (1993), “Yapay Sinir Ağları İşletme Alanında Uygulanması ve Bir 
Örnek Çalışma”, Doktora Tezi, İstanbul Üniversitesi. 
22. Hamilton, J. D. (1994), Time Series Analysis, Princeton University Press. 
23. Harvey, A. (1989), Forecasting, Structural Time Series Models, and the Kalman 
Filter, Cambridge: Cambridge University Press. 
24. Haykin, S. (1999), Neural Networks A Comprehensive Foundation, Prentice 
Hall International, Inc. 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
93


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
25. Heinemann, M. (2000), “Adaptive Learning of Rational Expectations Using 
Neural Networks”, Journal of Economic Dynamics & Control, 24, 1007-1026. 
26. Hill, T., Marquez, L., O’Connor, M. ve Remus, W. (1994), “Artificial Neural 
Network Models for Forecasting and Decision Making”, International Journal of 
Forecasting, 10, 5-15. 
27. 
Janacek, G. ve Swift, L. (1993), Time Series Forecasting, Simulation, 
Applications, Ellis Horwood Limited. 
28. Kadılar, C. (2000), Uygulamalı Çok Değişkenli Zaman Serileri Analizi, 
Hacettepe Üniversitesi. 
29. Kohonen, T. (1982), “Self-organised Formation of Topologically Correct 
Feature Maps”, Biological Cybernetics, 43, 59-69. 
30. Kramer, A. H. ve Sangiovanni-Vincentelli, A. (1989), “Efficient Parallel 
Learning Algorithms for Neural Networks”,  Advances in Neural Information 
Processing Systems, 1, 40-48. 
31. Leung, M. T.,  Daouk, H. ve Chen, A. (2000), “Forecasting Stock Indices: A 
Comparison of Classification and Level Estimation Models”,  International 
Journal of Forecasting, 16, 173-190. 
32. Malsburg, C. (1973), “Self-organisation of Orientation Sensitive Cells in the 
Striate Cortex”, Kybernetik, 14, 85-100. 
33. McCullogh, W. S. ve Pitts, W. (1943), “A Logical Calculus of the Ideas 
Immanent in Nervous Activity”,  Bulletin of Mathematical Biophysics, 5, 115-
133. 
34. Merton, R. C. ve Henriksson, R. D. (1981), “On Market Timing and Investment 
Performance 2: Statistical Procedures for Evaluating Forecasting Skills”
Journal of Business, 54, 513-433. 
35. Minsky, M. L. ve Papert, S. A. (1969), Perceptrons, Cambridge, MA: MIT 
Press. 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
94


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
36. Montgomery, D. C., Johnson, L. A. ve Gardiner, J. S. (1990), Forecasting & 
Time Series Analysis, McGraw Hill, Inc. 
37. Parker, D. B. (1987), “Optimal Algorithms For Adaptive Networks: Second 
Order Back Propagation, Second Order Direct Propagation, and Second Order 
Hebbian Learning”, IEEE 1st International Conference on Neural Networks, 2, 
953-600, San Diego, CA. 
38. 
Rumelhart, D. E., Hinton, G. E. ve Williams, R. J. (1986), “Learning 
Representations of Back-propagation Errors”, Nature (London), 323, 533-536. 
39. Sims, C. (1980), “Macroeconomics and Reality”, Econometrica, 48, 1-49. 
40. 
Stekler, H O. (1994), “Are Economic Forecasts Valuable?”,  Journal of 
Forecasting, 13, 495-505. 
41. Swanson, N. R. ve White, H. (1997), “Forecasting Economic Time Series Using 
Flexible Versus Fixed Specification and Linear Versus Nonlinear Econometric 
Models”, International Journal of Forecasting, 13, 439-461. 
42. Tkacz, G. (2001), “Neural Network Forecasting of Canadian GDP Growth”, 
International Journal of Forecasting, 17, 57-69. 
43. Üngör, A. (1998), “Yapay Sinir Ağları ve Box-Jenkins Modeli Kullanarak Döviz 
Kuru Tahmini”, Yüksek Lisans Tezi, Orta Doğu Teknik Üniversitesi. 
44. Wegmann, G. (2000), “Future Extraction With Hybrid Neural Networks”
Research Notes in Economics & Statistics, Deutsche Bank Research. 
45. Willshaw, D. J. ve Malsburg, C. (1976), “How Patterned Neural Connections 
Can Be Set Up By Self-organisation”,  Proceedings of the Royal Society of 
London Series B, 194, 431-445. 
46. Yıldız, B. (2001), “Finansal Başarısızlığın Öngörülmesinde Yapay Sinir Ağı 
Kullanımı ve Halka Açık  Şirketlerde Ampirik Bir Uygulama”,  İMKB Dergisi, 
17, 51-68 
47. Zurada, J. M. (1992), Introduction to Artificial Neural Systems, West St. Paul. 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
95


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Ek 1. Durdurma Kriteri 
 
Ağırlık ayarlama (öğrenme) sürecini bir noktada durdurmak için 
kullanılabilecek bazı makul kriterler vardır. Bu tür bir kriteri formüllemek için hata 
yüzeyine ait yerel veya genel minimum değerlerden yararlanılmaktadır. w* ağırlık 
vektörünün bir minimum değeri (yerel veya genel) gösterdiği düşünülürse, w* 
vektörünün minimum noktayı göstermesi için gerekli şart, g(w) değişme (gradient) 
vektörünün w=w* noktasında sıfır değeri almasıdır. Buna göre, Geri Besleme 
öğrenme süreci için bir yakınsama kriteri oluşturulabilmektedir (Kramer ve 
Sangiovanni-Vincentelli, 1989). 
 
“Değişme vektörünün Euclidean normu yeterince küçük bir eşiğe ulaşınca geri 
besleme algoritmanın yakınsadığı söylenebilir.” 
 
Bu yakınsama kriterinin dezavantajı, başarılı bir yakınsama için öğrenme 
süresinin uzun olabilmesidir. Ayrıca, değişme vektörünün hesaplanmasını 
gerektirmesi de diğer bir dezavantaj olarak görülebilir. Hata ölçüsünün (maliyet 
fonksiyonu olarak) w=w* noktasında durağan olmasını gerektiren özelliğin 
kullanılması ile başka bir kriter oluşturulabilir. 
 
“Bir döngü (epoch) için ortalama hata karesindeki değişmenin mutlak değeri 
yeterince küçüldüğünde geri besleme algoritmanın yakınsadığı söylenebilir.” 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
96


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Bu kriterde, ortalama hata karesindeki değişme için minimum değer 
araştırmacı tarafından belirlenmektedir. Ayrıca, bazı durumlarda bu yöntem 
öğrenme işleminin erken durdurulmasına neden olabilmektedir. Yakınsama için, 
teorik olarak kanıtlanmış başka bir kriter daha vardır. Bu kriterde, her öğrenme 
döngüsünden sonra ağın genelleme performansı test edilir ve öğrenme işlemi bu 
genelleme performansı yeterli bir düzeye ulaştığında sona erdirilir.
31
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
                                                      
31
 Bu kriterin detayı için bakınız: Haykin (1999), Bölüm 4.14 
 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
97


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Ek 2. YSA’ların Çalışma Şekli İçin Örnek Çözüm 
 
0.0
0.2
0.4
0.6
0.8
1.0
0.0
0.2
0.4
0.6
0.8
Örneklem
Şekil.2
 
 
 
 
 
 
 
0.0
0.2
0.4
0.6
0.8
1.0
0.0
0.2
0.4
0.6
0.8
Gerçek Fonksiyon
Şekil.1
Şekil.1’de tahmin edilmek istenen doğrusal olmayan bir yapı,  Şekil.2’de ise 
tahmin edilecek bu yapıdan rasgele elde edilmiş gözlemler gösterilmektedir. 
Şekillerin x-eksenlerini girdi olarak kullanarak, Şekil.2’deki gözlemleri tahmin 
etmek için basit bir ileri besleme YSA oluşturulmaktadır. Oluşturulan bu YSA 
modeli Şekil.3’te verilmektedir. Bir girdi tabakası, bir gizli tabakası ve bir de çıktı 
tabakası olan bu iki tabakalı ileri besleme ağ girdi ve çıktı tabakalarında birer, gizli 
tabakasında ise iki nörona sahiptir. Bu YSA mimarisi, dışsal etkileri içeren sapma 
değerinin de eklenmesiyle tahmin edildiğinde  Şekil.3’teki mimari ortaya 
çıkmaktadır. Tam bağlantı içeren bu yapıda okların yanındaki rakamlar tahmin 
edilen ilgili bağlantı ağırlıklarını göstermektedir. Basit bir şekilde tahmin edilen bu 
modelin örneklem içi öngörüleri Şekil.4’te örnek gözlemlerle karşılaştırmalı olarak 
verilmektedir. Şekilden de görülebileceği gibi gizli nöronlara sahip bir ileri besleme 
YSA (basit olmasına rağmen) doğrusal olmayan bir yapıyı oldukça iyi bir şekilde 
tanımlayabilmektedir.
32
 
0.0
0.2
0.4
0.6
0.8
1.0
0.0
0.2
0.4
0.6
0.8
0.0
0.2
0.4
0.6
0.8
1.0
0.0
0.2
0.4
0.6
0.8
Şekil.4
Örneklem
Tahmin
 
 
 
 
 
1
1.01
3.92 
3.25 
-4.48 
-7.29 
-7.47 
4.50 
Şekil.3 


                                                      
32
 Bu örnek çözüm Balkin (2001)’den alınmıştır. 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
98


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Ek 3. Gizli Nöron Sayısı İçin Üst Limit Kriteri 
 
Eldeki, eğitme için kullanılan veri setinin genişliği, gizli tabakalardaki nöron 
sayısına bir üst limit oluşturabilmektedir. Bu üst limitin belirlenmesinde 
kullanılabilecek bir yöntem şu şekilde özetlenebilir: 
 
Üst limiti hesaplamak için, eğitme setindeki girdi-çıktı ikililerinin sayısı 
kullanılır. Bu sayı, ağdaki toplam girdi ve çıktı nöronu sayısına bölünür. Elde edilen 
sonuç, bir ölçeklendirme katsayısı (genellikle 5Burada, daha büyük ölçeklendirme katsayısının daha fazla hata içeren (noisy) veri 
seti için kullanıldığı söylenebilir. Hatta, aşırı derecede hata içeren veri seti için çok 
daha büyük katsayılar (örneğin 20 veya 50) kullanılabilmektedir. Diğer taraftan, 
hemen hemen hiç hata içerilmemesi durumunda ise katsayı 2 seviyesine kadar 
indirilebilir. Bu noktada, veri setine yönelik analiz önem kazanmaktadır. Bu 
yöntemle, ölçeklendirme katsayısının ne olacağına bağlı olarak kesin bir neticeye 
ulaşılamasa da, yaklaşık bir fikir edinmek mümkündür. Ayrıca, genelleme 
özelliğinin kaybolabilmesi ve dolayısıyla ağın yeni veriler tanıtıldığında kullanışsız 
kalması sonucunu doğurabileceğinden, bir gizli tabakadaki nöron sayısının çok 
fazla olmaması yararlı olacaktır. 
 
 
 
 
 
 
 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
99


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Ek 4. Öğrenme Kuralları 
 
Yapay Sinir Ağlarında çok sayıda öğrenme kuralı kullanılmaktadır. Bu 
öğrenme kurallarının büyük çoğunluğu en eski ve en çok bilinen öğrenme kuralı 
olan Hebb Kuralının bir versiyonudur. Bunların yanında, farklı  öğrenme kuralı 
fonksiyonları da vardır ve bu konuda çalışmalar sürmektedir. Bazı araştırmacılar 
temel amaç olarak biyolojik öğrenmeyi modellemenin peşindedirler. Bazıları ise 
eldeki öğrenme hakkındaki bilgilerin bir şekilde uyarlanmasına çalışmaktadır. Her 
iki noktada da, sinirsel işlemin gerçekte nasıl olduğuna yönelik bilgiler oldukça 
kısıtlıdır. Dolayısıyla öğrenme, kullanılmakta olan öğrenme kurallarının ima 
ettiğinden çok daha komplikedir. Kullanılmakta olan bazı önemli öğrenme kuralları 
arasında Hebb Kuralı, Hopfield Kuralı, Delta Kuralı, Eğimli Değişim (Gradient 
Descent) Kuralı ve Kohonen Öğrenme Kuralı sayılabilir. Delta Kuralı metin içinde 
açıklanmaktadır; burada diğer öğrenme kuralları için bazı temel bilgiler 
verilmektedir. 
 
Hebb Kuralı: Hebb (1949) tarafından tanımlanmış olan bu kural ilk ve en çok 
bilinen öğrenme kuralıdır. Temel kural şu şekildedir: Bir nöron başka bir nörondan 
girdi alırsa ve iki nöron da yüksek derecede aktifse (yani matematiksel olarak aynı 
işarete sahipse) nöronlar arasındaki bağlantının ağırlığı artırılmalıdır. 
 
Hopfield Kuralı: Bir temel farklılık dışında Hebb Kuralına benzemektedir. 
Temel farklılık ise bağlantı  ağırlığında yapılacak değişikliğin büyüklüğünü de 
belirlemesidir. Buna göre, girdi ve istenilen çıktının ikisi de aktifse veya ikisi de 
aktif değilse, bağlantı  ağırlığı  öğrenme oranı kadar artırılır, aksi durumda ise 
öğrenme oranı kadar azaltılır. 
 
Eğimli Değişim Kuralı: Bu kurala göre, Delta Kuralında olduğu gibi, delta 
hatanın modifiye edilmesi için transfer fonksiyonunun türevi kullanılmaktadır. 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
100


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Eğimli Değişim Kuralının farklılığı, öğrenme oranına orantılı bir ek sabit değerin 
son değiştirme faktörüne eklenmesidir. Bağlantı ağırlığı, bu ek değerli faktöre göre 
değiştirilir. Bu kural, yavaş bir yakınsama sağlamasına rağmen yaygın olarak 
kullanılmaktadır. 
 
Kohonen Öğrenme Kuralı: Kohonen (1982) tarafından geliştirilen bu kural 
biyolojik sistemlerdeki öğrenme sisteminden esinlenilmiştir. Bu yöntemde, işlem 
elemanlarının, ağırlıkları ayarlamak (öğrenmek) için rekabet ettikleri 
düşünülmektedir. En uygun çıktıya sahip işlem elemanı diğerlerine göre baskın olur 
ve sadece bu nöronun çıktı sağlaması söz konusudur. Kendi kendine öğrenme (self-
organising) olarak da bilinen bu kural özellikle dağılımlara yönelik çalışmalarda 
kullanılmaktadır fakat teorik alt yapısının tam gelişmemiş olmasından dolayı 
uygulamada henüz yaygınlık kazanmamıştır. 
 
Burada, en çok bilinen öğrenme kuralları hakkında temel bilgiler 
sunulmaktadır. Öğrenme kuralları hakkında daha detaylı bilgi için Haykin 
(1999)’dan yararlanılabilir. 
 
 
 
 
 
 
 
 
 
 
 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
101


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Ek 5. XOR Problemi 
 
Tek tabaklı Perceptron (ileri besleme ağ) gizli nöronlar içermez, sadece çıktı 
tabakasına sahiptir. Bu yüzden, doğrusal olarak ayrıştırılamayan girdi yapılarını 
sınıflandıramaz yani doğrusal olmayan yapıları belirleyemez. Halbuki, doğrusal 
olmayan yapılar ile hemen hemen her konuda karşılaşılabilmektedir. Bu durum, 
XOR (Exclusive OR) probleminin basitleştirilmiş bir hali ile örneklenebilmektedir. 
Bu basitleştirilmiş yapı aşağıdaki şekilde sunulmaktadır. 
 
 
 
Şekilde açıklanan fonksiyon, doğrusal olarak ayrıştırılamayan bir yapı 
içermektedir. 1969 yılında Minsky ve Papert, yazdıkları kitapta bu tür bir yapının 
tek tabakalı Perceptron ile modellenemediğini ve dolayısıyla sorunlu olduğunu 
göstermişlerdir. YSA literatüründe XOR Problemi olarak adlandırılan bu sorun 
YSA üzerine çalışmaları durma noktasına getirmiştir. 
 
Daha sonra, Touretzky ve Pomerleau (1989)
33
 XOR probleminin YSA’larda 
gizli nöronlar kullanılarak yani çok tabakalı  ağlar yardımıyla aşılabildiğini 
göstermişlerdir. Bu şekilde, YSA teknolojisi ile doğrusal olmayan yapıların da 
sınıflandırılabildikleri ortaya konulmaktadır.
34
 
                                                      
33
 Bakınız: Haykin (1999) 
34
 XOR Problemi ile ilgili daha detaylı bilgi için bkz. Haykin (1999) ve Zurada (1992). 
 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
102


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
Ek 6. Bağımlı ve Açıklayıcı Değişkenlerin İkili Grafikleri 
 
Grafik 1: Fiyat ve Kur Serileri Artış Oranları (%) 
-20
0
20
40
60
86 87 88 89 90 91 92 93 94 95 96 97 98 99 00 01
P
E
 
 
Grafik 2: Fiyat ve M2Y Serileri Artış Oranları (%) 
-10
0
10
20
30
86 87 88 89 90 91 92 93 94 95 96 97 98 99 00 01
P
M
 
Grafik 3: Üretim ve Fiyat (İmalat San.) Serileri Artış Oranları (%) 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
103


Yapay Sinir Ağları Metodolojisi ile Öngörü Modellemesi: Bazı Makroekonomik Değişkenler İçin Türkiye Örneği    
-30
-20
-10
0
10
20
30
40
86 87 88 89 90 91 92 93 94 95 96 97 98 99 00 01
U
Pi
 
 
Grafik 4: Üretim Artış Oranları ve Faiz Oranı (%) 
-30
-20
-10
0
10
20
30
40
20
40
60
80
100
120
140
86 87 88 89 90 91 92 93 94 95 96 97 98 99 00 01
U
R
 
 
 
http://ekutup.dpt.gov.tr/ekonomi/tahmin/yurtoglh/ysa..pdf   
104

Document Outline

  • Şekil Listesi
  • Grafik Listesi
  • Geliştirilmiş Dickey-Fuller Durağanlık Testi
  • 1. Giriş
  • 2. Yapay Sinir Ağları (YSA)
    • 2.1. YSA Nedir?
    • 2.2. YSA’nın Yapısı: Elemanları ve Mimarisi
    • 2.3. YSA Çeşitleri
    • 2.4. Niçin YSA?
    • 2.5. Tarihsel Gelişim
    • 2.6. YSA, İstatistik ve Ekonomi
  • 3. Modeller ve Uygulama
    • 3.1. YSA Modelleri
      • 3.1.1. Fiyat Modeli (YSA-1)
      • 3.1.2. Üretim Modeli (YSA-2)
    • 3.2. VAR Modelleri
      • 3.2.1. Fiyat Modeli (VAR-1)
        • Değişken
        • Gecikme
      • 3.2.2. Üretim Modeli (VAR-2)
        • Değişken
        • Gecikme
    • 3.3. ARMA Modelleri
      • 3.3.1. Fiyat Modeli (ARMA-1)
      • 3.3.2. Üretim Modeli (ARMA-2)
  • 4. Öngörü Değerlendirmesi ve Model Karşılaştırması
    • 4.1. Fiyat Modelleri
    • 4.2. Üretim Modelleri
      • Örneklem İçi Dönem
        • ME
          • MPE
            • Örneklem Dışı Dönem
              • ME
                • MPE
  • 5. Sonuç
  • Abstract
  • Kaynaklar
  • Ek 1. Durdurma Kriteri
  • Ek 2. YSA’ların Çalışma Şekli İçin Örnek Çözüm
  • Ek 3. Gizli Nöron Sayısı İçin Üst Limit Kriteri
  • Ek 4. Öğrenme Kuralları
  • Ek 5. XOR Problemi
  • Ek 6. Bağımlı ve Açıklayıcı Değişkenlerin İkili Grafikleri

Yüklə 72,84 Kb.

Dostları ilə paylaş:
1   ...   24   25   26   27   28   29   30   31   32




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə