Analisis dan Evaluasi Algoritma MapReduce WordCount pada Cluster Hadoop menggunakan Indikator Kecepatan
DOI:
https://doi.org/10.54914/jit.v6i1.214Kata Kunci:
Hadoop, MapReduce, WordCountAbstrak
Penelitian diajukan untuk menganalisis kecepatan algoritma MapReduce pada cluster Hadoop dan mengetahui waktu yang dibutuhkan dalam mengolah data GDELT pada Hadoop. Penelitian ini menggunakan metode analisis kualitatif. Berdasarkan analisa data yang telah dilakukan, diperoleh kesimpulan bahwa algoritma WordCount yang diterapkan pada data set GDELT dapat berjalan pada cluster Hadoop. Kecepatan algoritma WordCount pada MapReduce yang diterapkan untuk data set GDELT pada hadoop berpengaruh apabila node yang digunakan ditambah, dimana dalam penelitian menggunakan sebanyak 2 node physical machine. Hadoop dapat mengolah data yang memiliki ukuran besar dan banyak karena Hadoop mengolah data secara terdistribusi. Kecepatan Hadoop dapat diatur dengan menambahkan node dan juga pengaturan lainnya seperti halnya block size.
Unduhan
Referensi
I. N. Aziz, Fitriyani, K. R. S. Wiharja, “Analisis Pengolahan Text File pada Hadoop Cluster dengan memperhatikan Kapasitas Random,†Bandung: Universitas Telkom, 2015.
C. Lam, “Hadoop in Action,†Stamford: Manning Publications Co., 2011.
M. Industri, “Definisi Cloud Computing,†Meruvian.org Cloud Computing, 2013.
“Apache Hadoop,†Hadoop Apache, [Online]. Available: http://hadoop.apache.org/
K. Letaru, “The GDELT Project,†GDELTProject, [Online]. Available: www.gdeltproject.org
J. D. Ghenawat, “MapReduce: Simplified Data Processing on Large Clusters,†2004.
M. G. Noll, “Running Hadoop On Ubuntu Linux (Multi-Node Cluster),†2004-2019, [Online]. Available: https://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/
Unduhan
Diterbitkan
Cara Mengutip
Terbitan
Bagian
Lisensi
Hak Cipta (c) 2021 Jurnal Informatika Terpadu
Artikel ini berlisensiCreative Commons Attribution-ShareAlike 4.0 International License.