Datu handiak

Wikipedia, Entziklopedia askea
Hona jauzi: nabigazioa, Bilatu
Wikipediaren eguneroko ekarpenak, IBMek egindako irudikatze-lana.

Datu handiak edo datu masiboak (ingelesez: Big data) prozesatzeko oso multzo handia osatzen duten datuak dira, konplexutasun handikoak; ohiko informatika-sistementzat zaila izaten da horrelako datuak prozesatzea.[1] Bere analisi, tratamendu, eskuratze, partekatze eta babeste erronka handiak dira. Gehienetan, iragarpen analitikoak egiteko erabiltzen dituzte[2] Interneteko bilakaeran, finantzetan, meteorologian, genetikan[3] eta beste hainbat arlotan.

1980ko hamarkadatik aurrera, 40 hilabetero munduan informazioa pilatzeko gaitasuna bikoiztu egin da;[4] 2012. urtean, egunero 2,5 exabyte (2,5×1018) datu sortzen zen.[5]

Ezaugarriak[aldatu | aldatu iturburu kodea]

Big data sistema bat, ondorengo ezaugarriei esker deskriba daiteke, ingelesez 7 V-ak bezala ezagunak direnak:

  • Bolumena (Volume): Sortu eta bildutako datu kantitatea.
  • Aniztasuna (Variety): Bildutako datu moten arteko desberdintasuna.
  • Abiadura (Velocity): Kontextu honetan, datu sortze eta prozesatzearen abiadura.
  • Aldakortasuna (Variability): Jasotako datuen konsistentzia.
  • Egiazkotasuna (Veracity): Jasotako datuen kalitatea.
  • Bistaratzea (Visualtization): Datuen prozesamenduaren ondoren, hauek modu egokian bistaratzeko gaitasuna.
  • Balioa (Value):Datuen jasotze eta prozesamendu faseen ondoren, datuetatik atera daitekeen balioa.

Sistema hauen garapena oso handia izan da azken hamarkadan, eta sistemen konplexutasuna ere modu berean hazi da. Honela, hasiera batean 3 aldagairen inguruan definitzen ziren sistema hauek (Volume, Variety, Velocity), baina denborarekin gehiago gehitu zaizkio.

Erreferentziak[aldatu | aldatu iturburu kodea]


Informatika Artikulu hau informatikari buruzko zirriborroa da. Wikipedia lagun dezakezu edukia osatuz.