Mastering HADOOP: Open Source Big Data & Distributed Computing Framework
Ingin memulai karir sebagai Big Data Engineer yang handal?
Siapa yang tidak kenal teknologi Big Data seperti Hadoop dan segudang potensi yang dijanjikan? Kemampuan Hadoop untuk mengolah hingga milyaran data menjadi insight bisnis membuat banyak perusahaan maupun instansi pemerintah berlomba mengucurkan investasi dengan jumlah yang besar untuk teknologi dan infrastruktur pendukung. Sayangnya, ROI yang diharapkan tidak terjadi sehingga belum banyak yang dapat merealisasikan potensi ini.
Mastering Hadoop Track disusun dengan melihat kebutuhan bisnis berdasarkan pengalaman praktisi PHI-Integration bekerja dengan Hadoop hingga dapat berjalan optimal sesuai dengan use-case perusahaan.
Dapatkan metode pelajaran yang penuh dengan praktek dan latihan dalam melakukan:
– KONFIGURASI & OPTIMASI menggunakan YARN, HDFS, MapReduce
– MANAJEMEN DATA menggunakan Hive
– OTOMASI DATA FLOW menggunakan Kettle, Sqoop, dan Flume
Tim PHI-Integration adalah implementor solusi manajemen data yang telah lebih dari 15 tahun membantu perusahaan maupun institusi pemerintah seperti Dirjen Pajak, Kementerian BUMN, Telkomsel, The Body Shop, DIMA (Distributor Guinness), Bank BTPN, dan masih banyak lainnya.
Dengan pengalaman PHI-Integration dalam melakukan implementasi & optimasi Hadoop selama 5 tahun terakhir menangani puluhan juta bahkan miliaran row data, seri mastering kali ini akan penuh manfaat dari diskusi kasus riil.
DAFTAR SEKARANG
& Mulai karirmu sebagai Big Data Engineer!
Terbatas hanya untuk 25 peserta!
BENEFITS
– $75 of AWS Credit powered by AWS Educate
– On the spot employment opportunity
– Access to community for post-training support
PRICE IS INCLUSIVE OF
– Sertifikat
– Materi workshop
– Lunch & Snacks
PREREQUISITES
– Memiliki pengetahuan penggunaan Linux
– Memiliki pengalaman menggunakan teknologi Virtual Machine (VM)
– Memiliki pengalaman menggunakan solusi cloud (i.e. Microsoft Azure, Amazon Web Services, etc)
DETAIL WORKSHOP
30 Jan | YARN, HDFS & MapReduce: Secret Sauce of Hadoop!
31 Jan | Data Management with Hive
01 Feb | Data Flow Automation with Kettle, Sqoop, and Flume
LEARNING OUTCOMES
DAY-1 | YARN, HDFS & MapReduce: Secret Sauce of Hadoop!
– Understand Hadoop’s distributed computing mechanism and the components involved (YARN and HDFS)
– Acquire knowledge and skill set to configure and utilize Hadoop’s number of computing nodes and each node’s computing resource (disk, memory, and number of processor core)
– Understand fundamental of MapReduce programming
DAY-2 | Data Management with Hive
– Understand Hive as database platform for Hadoop with SQL-like query
– Learn basic functionality of Hive
– Learn how to troubleshoot Hive
DAY-3 | Data Flow Automation with Kettle, Sqoop, and Flume
– Use Kettle for data preparation
– Ingest data in almost real-time mode using Flume
– Export/import between relational DB and Hadoop using Sqoop
– Integrating and automating Kettle, Sqoop, and Flume solution
INVESTMENT & PAYMENT
Early Bird Special Price s/d 08 Jan 2018*
– Professional: IDR 5,990,000.-
– Student: IDR 999,000.- (eligible with valid student ID)
Normal Price*
– Professional: IDR 9,990,000.-
– Student: IDR 1,990,000.-
*Extra Bonus IDR 300,000.- Discount for those who pass the placement test
Payment Details:
– Nama Account: PT. Yayasan Multi Media Nusantara
– Bank: BCA Gajah Mada
– No Rekening: 0123034659
– Reference No: FirstName_LastName_MasteringHadoop
REGISTRASI: http://gg.gg/svhadoop
MORE INFORMATION:
- E-mail: [email protected]
- WA/Call: Bagus – 0812 2590 3056