Xülasə Big Data mənbələrinin əsas hissəsini təşkil edən


“Big data: imkanları, multidissiplinar problemləri və perspektivləri” I respublika elmi-praktiki konfransı



Yüklə 0,7 Mb.
Pdf görüntüsü
səhifə2/7
tarix31.12.2021
ölçüsü0,7 Mb.
#81759
növüXülasə
1   2   3   4   5   6   7
1-7 Qasimova Rena Boyuk Verilnlr Analizinin Problemlri son

“Big data: imkanları, multidissiplinar problemləri və perspektivləri” I respublika elmi-praktiki konfransı 

Bakı şəhəri, 25 fevral 2016-cı il

 

 



32 

 

mütəxəssisləri  bu  sahədə  yeni  metod  və  alətlərin  işlənməsinə 



sövq edir.  

Fast  Data

  üçün  emal  yeni  biliklərin  alınmasını  nəzərdə 

tutmur,  onun  nəticələri  aprior  biliklərlə  əlaqələndirilir,  bu  və 

ya  digər  proseslərin  necə  keçməsinə  nəzarət  edir,  eyni 

zamanda  baş  verənləri daha  yaxşı  və  ətraflı  şəkildə  görməyə, 

hansısa  hipotezləri  təsdiq  və  ya  inkar  etməyə  imkan  verir. 

Yalnız  mövcud  texnologiyaların  kiçik  bir  hissəsi  Fast  Data 

məsələlərinin həllinə  yarayır. Bunlara xəzinələrlə işləyən bəzi 

texnologiyaları göstərmək olar, məsələn, Greenplum, Netezza, 

Oracle  Exadata,  Teradata,  Verica  tipli  verilənlər  bazasının 

idarəetmə sistemləri (VBİS) və s. Bu texnologiyaların iş sürəti 

verilənlər həcminin artımı ilə sinxron artır.  



Big Analytics

 vasitələri ilə həll olunan məsələlər kəmiyyət 

və keyfiyyətcə çox fərqlənirlər. Uyğun texnologiyalar isə yeni 

biliklərin alınmasına və faydalı məlumatların əldə olunmasına 

kömək  etməklə,  verilənlərdə  olan  informasiyanı  yeni  biliyə 

çevirirlər.  Başqa  sözlə  qərarın  seçilməsində  süni  intellekt 

texnologiyaları  nəzərdə  tutulmur,  analitik  sistem  “müəllimlə 

təlim”  prinsipi  üzrə  qurulur  və  onun  bütün  analitik  potensialı 

təlim  prosesində  ona  tətbiq  edilir.  Belə  analitikanın  klassik 

nümunələri  MATLAB,  SAS,  Revolution  R,  Apache  Hive, 

SciPy Apache və Mahout məhsullarıdır [19-21]. 

Yüksək 


səviyyə, 

Deep 

Insight

 

müəllimsiz 



təlimi 

(unsupervised  learning)  və  analitikanın  müasir  metodlarının 

istifadəsini,  həmçinin  müxtəlif  vizuallaşma  üsullarını  nəzərdə 

tutur.  Bu  səviyyədə  aprior  bilik  və  qanunauyğunluqların 

aşkarlanması mümkündür. 

Keyfiyyət  baxımından  Big  Data  Analytics  proqramları 

nəinki  yeni  texnologiyalar,  həm  də  yeni  düşüncə  tərzi  tələb 

edir. Analitikaya ilkin verilənlərin hazırlanması vasitələrindən, 

vizuallaşmadan  və  nəticələri  insana  təqdim  edən  digər 

texnologiyalarından  ayrica  baxılır.  Hətta  The  Data 

Warehousing  Institute  kimi  təşkilatın  analitikaya  baxışları 

başqadır.  Təşkilatın  məlumatına  görə  hazırda  müəssisələrin 

38%-i 

idarəetmə 



praktikasında 

Advanced 

Analytics 

vasitələrindən  istifadə  imkanlarını  tədqiq  edirlər,  50%-i  isə 

yaxın üç il ərzində bunu etməyi nəzərdə tuturlar. Qeyd etmək 

lazımdır  ki,  müəssisələrdə  bu  sahəyə  belə  maraq  biznes 

sahəsindən  çoxlu  arqument  gətirməklə  əsaslandırılır.  Belə  ki, 

müəssisələrə yeni şəraitdə daha təkmil idarəetmə sistemi tələb 

olunur.  Onun  yaradılmasına  əks  əlaqə  qurulmasından,  yəni 

qərar  qəbulunu  dəstəkləyən  sistemlərdən  başlamaq  tələb 

olunur  ki,  bunun  da  nəticəsində  gələcəkdə  qərar  qəbulunu 

avtomatlaşdırmaq mümkün olacaqdır. 

Texnoloji 

obyektlərin 

avtomatlaşdırılmış  idarəetmə 

sistemlərinin  yaradılması  problemi  heç  də  yeni  deyildir.  Bu 

verilənlər  bazası  sahəsindəki  çoxdan  mövcud  olan  mövzudur 

ki,  paylanmış  verilənlər  bazası,  resursların  birgə  istifadəsi 

arxitekturunun  yaranması  da  bu  məsələnin  həllinə  xidmət 

etmişdir [22].  

Analiz  üçün  yeni  vasitələr  verilənlər  mənbələrinin  çox 

olmasına,  həmçinin  müxtəlif  formatlarda  (strukturlaşdırılmış, 

strukturlaşdırılmamış,  qismən  strukturlaşdırılmış)  olmasına, 

həm  də  müxtəlif  ideksləşmə  sxemlərindən  (relyasion, 

çoxölçülü, noSQL) istifadə edilməsinə görə tələb olunur. Belə 

ki,  böyük  həcmli  verilənləri  toplamaq,  birgə  emal  etmək  və 

analiz üçün uyğun şəklə salmaq çox çətin olur.  

Ənənəvi  üsullarla  verilənlərlə  işləmək  artıq  mümkün 

olmur.  Big  Data  Analytics  daha  böyük  və  mürəkkəb 

massivlərə  tətbiq  edildiyindən  Discovery  Analytics  və 

Exploratory  Analytics  terminlərindən  də  istifadə  edilir.  Necə 

adlandırılmasından  asılı  olmayaraq,  mahiyyət  eynidir  –  qərar 

qəbul  edən  şəxsləri  müxtəlif  proseslər  haqqında  məlumatlarla 

təmin edən əks əlaqəni yaratmaq tələb olunur [23-26].



 

Müasir  İT  faktorları:  böyük  verilənlər,  analitika  və  bulud 

texnologiyalarını  bu  gün  bir-birindən  ayrı  təsəvvür  etmək 

mümkün  deyildir.  Çoxsəviyyəli  saxlama  sistemlərinə  artan 

tələbat, bulud texnologiyalarının real olaraq mövcudluğu həm 

də 


BV-nin 

analitikasına  marağı  artırmışdır.  Bulud 

texnologiyaları  böyük  hesablamaların  aparılmasında  son 

dərəcə 


müvəffəqiyyətli 

yanaşmalardandır, 

buludlarda 

saxlamaq  və  buludlarda  hesablamalarsız  BV-lə  işləmək 

mümkün deyildir. Burada böyük həcmli rəqəmsal informasiya 

IaaS (Infrastructure as a service), PaaS (Platform as a service), 

SaaS  (Software  as  a  service)  “bulud”  xidmətləri  vasitəsi  ilə 

mərkəzləşdirilmiş  qaydada  idarə  olunur  və  saxlanılır.  İT 

sahəsindəki  nəhəng  şirkətlər  yeni  nəsil  saxlama  sistemlərində 

məhz  miqyaslama  aspektlərinə  və  verilənlərin  çoxsəviyyəli 

saxlanmasına böyük diqqət ayırmışdır [27, 28].  

Praktika  göstərir  ki,  bu  gün  analitik  məsələlərin  yerinə 

yetirilməsi  üçün  sistemləri  çox  yükləmək  tələb  olunur.  Lakin 

biznes tələb edir ki, bütün servis, əlavələr və verilənlər həmişə 

əlçatan olmalıdır. Bundan başqa, hazırda analitik tədqiqatların 

nəticələrinə  tələbat  çox  yüksəkdir.  Çünki,  savadlı,  düzgün  və 

vaxtında  keçirilən  analitik  proseslər  bütövlükdə  biznes  işinin 

nəticələrini əhəmiyyətli artırmağa imkan verir. 

III.

 

BÖYÜK



 

VERİLƏNLƏRİN

 

ANALİZİ


 

PROBLEMLƏRİ 

Bu  gün  BV-nin  analizi  üçün  VX  (Data  Warehouse) 

texnologiyalarının  yanaşma  və  metodlarından  istifadə  etməyə 

cəhd  göstərilir.  Bununla  yanaşı  ənənəvi  metodların  bəzi 

xüsusiyyətləri  BV-nin  emalı  spesifikasına  zidd  ola  bilər. 

Verilənlərin  operativ  və  analitik  emalı  məsələlərinin 

əhəmiyyətli  fərqi  verilənlər  bazaları  texnologiyalarının 

inkişafının ilk vaxtlarında yaranmışdı. VX termini 70-ci illərdə 

Bill İnmon tərəfindən təklif edilmiş,  lakin bu texnologiyalara 

maraq  20  il  keçəndən  sonra,  belə  sistemlərə  real  tələbat 

yarandıqda  və  lazımi  hesablama  gücləri  əlçatan  olduqda  baş 

vermişdi [29]. 

VX-də 


verilənlərin 

emalı 


mərhələləri 

verilənlərin 



toplanmasından,  təmizləmədən,  yükləmədən,  analizdən

  və 


nəhayət  analizin  nəticələrinin 

təqdimatından

  ibarətdir.  Bu 

mərhələlərin 

hər 


birində 

verilənlər 

üzərində 

xüsusi 


əməliyyatlar yerinə yetirilir. Qeyd etmək lazımdır ki, əgər BV-

nin  analizi  üçün  VX  texnologiyalarının  tətbiqinə  cəhd  olsa, 

onda  yalnız  alqoritmlərin  analizinə  deyil,  həm də  verilənlərlə 

işin bütün mərhələlərinə diqqət yetirmək lazımdır. 




Yüklə 0,7 Mb.

Dostları ilə paylaş:
1   2   3   4   5   6   7




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə