Bagaimana Membangun Use Case Bisnis di Atas Hadoop dengan Mudah?

 

Oleh: Sofyan Fadli, Data Scientist – Data and Analytics, Consulting Service

 

Tidak dapat dipungkiri, memasuki era Industri 4.0 saat ini, perusahaan tidak akan bisa lepas dari yang namanya disrupsi teknologi. Tak terkecuali, perusahaan kecil maupun besar, dituntut untuk mengalami perubahan yang sangat cepat agar dapat bersaing dengan kebutuhan pasar ini.

 

Salah satu cara yang dianggap ampuh untuk menjawab tuntutan tersebut adalah dengan menerapkan kemampuan analisis data maupun analitik data kepada bisnis satu perusahaan dengan memanfaatkan teknologi Big Data.

 

Salah satu solusi Enterprise Big Data yang banyak diterapkan saat ini adalah HDFS (Hadoop Distributed File System). Solusi yang ditawarkan oleh Hadoop adalah kemampuannya untuk memecah file berukuran sangat besar menjadi berukuran kecil (block size) dan kemudian didistribusikan ke beberapa node / cluster. Kemudian dengan adanya processing engine yang tidak hanya mengandalkan satu node saja, membuat kemampuan komputasi dari HDFS menjadi sangat dynamic tergantung bagaimana kebutuhan perusahaan dalam mengolah data.

 

Hadoop mengolah data dalam cluster mereka menggunakan istilah yang dinamakan dengan Map Reduce. Dulu, untuk kita bisa memanfaatkan kemampuan dari cluster Hadoop untuk melakukan analisa data, kita harus memiliki kemampuan programming agar dapat membuat Map Reduce Job menggunakan bahasa native dari Hadoop, yaitu Java.

 

Selain itu, ada pula extensions tambahan dari Hadoop, yaitu Spark, dimana Spark memungkinkan kita untuk melakukan analisa micro-batch atau analisa real time menggunakan kemampuan memori daripada setiap Hadoop cluster. Untuk membuat Spark Job pun sama, kita harus menggunakan bahasa native daripada teknologi Spark, yaitu Scala.

 

Dengan adanya kebutuhan untuk menguasai bahasa pemrograman yang berbeda seperti ini, ditambah juga dengan tidak adanya support secara entreprise pada waktu penerapannya, tentu saja akan membuat perusahaan ragu pada saat akan mengimplementasikan kedua solusi ini di bisnis mereka.

 

Tetapi, saat ini, sudah banyak solusi enterprise yang ditawarkan untuk menerapkan teknologi Hadoop maupun Spark dalam bisnis mereka. Salah satu solusi yang terbaik saat ini adalah TIBCO Spotfire Data Science.

 

 

TIBCO Data Science (DS) adalah sebuah platform yang diciptakan untuk mempermudah para praktisi data dalam memanfaatkan teknologi Hadoop maupun Spark untuk melakukan analisa data.

 

 

Penerapan TIBCO Data Science di berbagai industri sudah sangat banyak, diantaranya:

 

Lalu, jika perusahaan ingin mengimplementasi TIBCO Data Science secara on-premise, apakah diperlukan biaya infrastructure yang mahal? Tentu saja tidak. TIBCO DS tidak memerlukan spesifikasi server yang tinggi untuk dapat diimplementasikan. Yang perlu diperhatikan hanyalah bagaimana kemampuan dari Hadoop Cluster nya.

 

 

Disini, dapat kita lihat bahwa TIBCO DS tidak melakukan pemrosesan data sama sekali. TIBCO DS hanya mengirimkan Job atau script untuk memerintahkan Hadoop cluster untuk melakukan pemrosesan data. Dan tidak ada data movement sama sekali. Karena seluruh data yang dibaca oleh TIBCO DS, tetap berada di Hadoop Cluster itu sendiri.

 

Berca Hardayaperkasa adalah Perusahaan yang pertama kali melakukan implementasi Tibco Data Science untuk salah satu perusahaan telekomunikasi di Indonesia pada tahun 2018. Berca Hardayaperkasa adalah partner resmi Tibco di Indonesia. Dan kami memiliki resource yang certified untuk implementasi Tibco Data Science.

 

Jika anda membutuhkan penjelasan lebih lanjut dapat menghubungi kami.