13
də neyron sistemlərini çox vaxt konneksionist (connection birləşmə, əlaqə
sözündən) sistemlər də adlandırırlar.
Şəbəkədə əlaqələrin düzümü onun arxitekturasını 2 növə ayırmaq olar: tam
ə
laqəli və iyerarxik şəbəkələr.
Qraflar nəzəriyyəsindən məlumdur ki, tam əlaqəli arxitekturada şəbəkənin
bütün elementləri bir-biri ilə birləşmiş olur. Neyron şəbəkələrdə bu onu göstərir ki,
hər bir neyronun çıxışı bütün digər neyronların girişləri ilə birləşmiş və onun
girişləri qalan elementlərin çıxışları ilə bağlanmışdır. Bundan başqa, hər bir
neyronun çıxışı onun girişinə birləşdirilmişdir (“özü- özü ilə əlaqə”). N neyrondan
ibarət tam əlaqəli şəbəkələrdə hər bir düyündən N əlaqə çıxdığından əlaqələrin
sayı N*N-ə bərabərdir. Şəkil 1-də 6 neyrondan ibarət olan tam əlaqəli şəbəkə
göstərilmişdir.
yerarxik arxitekturada ayrı-ayrı laylarda və ya səviyyələrdə yerləşmiş
neyron qruplarını ayırmaq olar. Layın hər bir neyronu əvvəlki və sonrakı layın hər
bir neyronu ilə əlaqələndirilir.
Şə
kil 1. Tam əlaqəli neyron şəbəkəsi.
14
Şəkil 2. yerarxik neyron şəbəkələri.
Giriş və çıxış laylarını xüsusi olaraq ayırmaq lazımdır. Giriş layının
neyronları siqnalları xarici mühitdən alırlar və sonrakı layın neyronları üzrə
paylayırlar. Çıxış layının neyronlarının çıxışları xarici mühitə daxil olur. Girişlər
və çıxışlar arasında yerləşmiş laylar aralıq və yaxud gizli laylar adlanır (onların
xarici mühitlə bilavasitə əlaqəsi olmur).
Siqnalların ötürülməsi istiqamətinə görə şəbəkələri əks əlaqəsiz və qeyri-
rekurrent (feed-forward) və əks əlaqəli və ya rekurrent (feed-back) şəbəkələrə
ayırmaq olar.
Ə
ks əlaqəsiz şəbəkələrdə bir layın neyronları siqnalları yalnız xarici mühitdən
və yaxud da əvvəlki layın neyronlarından qəbul edirlər və siqnalları ya xarici
mühitə, ya da sonrakı layın neyronlarının girişinə ötürürlər.
Rekurrent şəbəkələrdə müəyyən laydakı neyronlar bundan əlavə, siqnalları
özləri-özlərindən və həmin layda yerləşən digər neyronlardan qəbul edə bilərlər.
Beləliklə, qeyri-rekurrent şəbəkələrdən fərqli olaraq rekurrent şəbəkənin
neyronalarının çıxış siqnallarının qiyməti yalnız girişlərindəki siqnalların cari
qiymətləri və uyğun əlaqələrin çəkiləri ilə deyil, həm də bəzi neyronların əvvəlki
zaman anındakı çıxış qiymətləri ilə təyin olunurlar. Bu onu göstərir ki, belə şəbəkə
çıxışların vəziyyəti haqqında informasiyanı müəyyən müddtdə yadda saxlamağa
imkan verən yaddaş elementlərinə malikdir.
Rekurrent şəbəkələrin öz layının neyronları ilə əlaqələri ləngidici olan halda
(yəni mənfi çəkili əlaqələr olan hal) onu lateral ləngidici şəbəkə adandırırlar.
15
Xarici mühitlə ən sıx qarşılıqlı əlaqə supervizor üsullardan istifadə edəndə
olur. Bu zaman giriş vektorlar çoxluğu və ona uyğun çıxış vektorları çoxluğu
ə
vvəlcədən müəyyənləşdirilir. Hər bir giriş vektorunun i-ci komponenti şəbəkənin
i
-ci neyronuna verilən siqnala uyğun gəlir. Analoji olaraq, çıxış vektorunun j-cu
komponenti j-cu çıxış neyronunda alınan siqnalla uyğun gəlir. x girş vektoru və
ona uyğun Y çıxış vektoru öyrətmə cütləri adlanan cüt təşkil edir. Bütün öyrətmə
cütləri toplusu öyrətmə çoxluğunu yaradır. Öyrətmə prosesi zamanı neyron
şə
bəkənin çıxış vektorunun cari qiymətləri ilə öyrətmə çoxluğundan seçilmiş
verilmiş qiymətlər arasındakı meyletmələr hesablanır. Bu qiymətləndirməyə uyğun
olaraq şəbəkənin parametrlərində təshih aparılır. Neyron şəbəkələrin öyrətmə
alqoritmləri arasında ən çox tətbiq edilən xətaların geriyə yayılması (error
backpropagation) alqoritmi bu prinsiplə işləyir.
Şəkil 4. Rekurent şəbəkə.
Şə
kil 3. Əks əlaqəsiz şəbəkə.
16
Şəkil 5. Lateral ləngidici şəbəkə.
Süni neyronların birlaylı şəbəkələri. Siqnalların paylanması üçün ayrılmış giriş
neyronları layından başqa bir hesablayıcı neyron layı olan iyerarxik qeyri-rekurent
şə
bəkə sadə birlaylı şəbəkə adlanır. Hesablayıcı neyronlarda hər bir neyronun çıxış
siqnalı onun girişinə daxilolan siqnalların uyğun əmsallara vurulduqdan sonrakı
cəmindən asılı funksiya kimi təyin olunur. Ən sadə halda, çıxış hər bir hesablayıcı
neyronun girişinə daxil olan siqnalların sadəcə olaraq uyğun əmsallara
vurulduqdan sonrakı cəmidir. Çıxış siqnallartoplusu şəbəkənin Y çıxış vektorunu
ə
mələ gətirir. Y vektorunun m-ölçüsü şəbəkənin çıxışlarının sayına bərabərdir.
Analoji qayda ilə n-ölçülü X giriş vektorunu, n* m ölçülü W çəki əmsalları matrisini
təyin etsək, biz şəbəkənin çıxışının onun girişindən asılılığını vektor şəklində
Y=X*W
kimi yaza bilərik.
Göstərmək olar ki, fəallaşma funksiyası xətti olan belə şəbəkənin hesablama
gücü yeni laylar əlavə ediləndə artmır. 1-ci və 2-ci layların çəki əmsalları matrisləri
uyğun olaraq W
1
və W
2
olan ikilaylı şəbəkəyə baxaq. 1-ci layın neyronlarının çıxış
vektoru Y
1
=X*W
1
? 2-ci layın çıxış vektoru isə Y
2
=Y
1
*W
2
=X*W
1
*W
2
=X*W
düsturu
ilə tapılır, burada W=W
1
*W
2
verilmiş ikilaylı şəbəkəyə ekvivalent olan birlaylı
şə
bəkənin çəki əmsalları matrisidir.
Analoji qayda ilə xətti fəallaşma funksiyanın istənilən çoxsaylı şəbəkəni
ekvivalent birlaylı şəbəkəyə çevirmək olar.
Biz yuxarıda şəbəkənin laylarının sayını göstərəndə paylaşdırıcı rolunu oynayan
giriş layını nəzərə almamışıq. Bundan sonra layın sayını göstərəndə bütün layları
nəzərə alacağıq.
Çoxsaylı süni neyron şəbəkələri. Qeyri-xətti fəallaşma funksiyasından istifadə
edilən şəbəkədə layların sayının artırılması onun hesablama gücünün artırılmasına,
daha mürəkkəb inikasların qurulmasına imkan verir.
Gizli layları olmayan sadəşəbəkələr bir sıra məsələləri həll edə bilmir. Belə
məsələyə hamıya yaxşı məlum olan məşhur “istismaredici və ya” (modul 2-yə görə
toplama) problemi nümunə ola bilər ki, köməkçi laylar əlavə edilməyən sadə
şə
bəkə ilə bu məsələni həll etmək mümkün deyil. Problemin məhz nədən ibarət
i
Dostları ilə paylaş: |