Trebam li naučiti Hadoop za spark?
Trebam li naučiti Hadoop za spark?

Video: Trebam li naučiti Hadoop za spark?

Video: Trebam li naučiti Hadoop za spark?
Video: Как установить Spark на Windows 2024, Maj
Anonim

Ne, nećeš treba naučiti Hadoop to learnSpark . Spark bio je samostalan projekat. Ali nakon YARNand Hadoop 2.0, Spark postao popularan jer Spark može raditi na vrhu HDFS-a zajedno s drugim Hadoop komponente. Hadoop je okvir u kojem pišete posaoMapReduce nasljeđivanjem Java klasa.

Slično tome, šta je bolje naučiti Spark ili Hadoop?

Prva i glavna razlika je kapacitet RAM-a i njegovo korištenje. Spark koristi više Memorija slučajnog pristupa nego Hadoop , ali "jede" manje količine internetske ili disk memorije, pa ako je koristite Hadoop , to je bolje pronaći moćnu mašinu sa velikom internom memorijom.

Drugo, da li je Hadoop lako naučiti? Hadoop programiranje je lakše za ljude sa SQL vještinama - zahvaljujući Pig and Hive. Učenici ili profesionalci bez ikakvog znanja programiranja, sa samo osnovnim znanjem SQL-a, mogu savladati Hadoop putem sveobuhvatnog praktičnog rada Hadoop obuku ako imaju žara i volje za to naučiti.

Također je postavljeno pitanje koliko će vremena trebati da se nauči Hadoop?

otprilike 3-4 mjeseca

Da li iskra zamjenjuje Hadoop?

Spark nikada ne može biti a zamjena za Hadoop ! Spark je procesor za obradu koji funkcionira na vrhu Hadoop ekosistema. Kao što je prikazano u gornjoj arhitekturi, Spark dolazi umjesto MapReduce u Hadoop ekosistema. Postoje i druge komponente u Hadoop arhitektura za obradu podataka poput Pig and Hive.

Preporučuje se: