[Technical Workshop] Mastering HADOOP

|

Event

Description

Mastering HADOOP: Open Source Big Data & Distributed Computing Framework

Ingin memulai karir sebagai Big Data Engineer yang handal?

Siapa yang tidak kenal teknologi Big Data seperti Hadoop dan segudang potensi yang dijanjikan? Kemampuan Hadoop untuk mengolah hingga milyaran data menjadi insight bisnis membuat banyak perusahaan maupun instansi pemerintah berlomba mengucurkan investasi dengan jumlah yang besar untuk teknologi dan infrastruktur pendukung. Sayangnya, ROI yang diharapkan tidak terjadi sehingga belum banyak yang dapat merealisasikan potensi ini.

Mastering Hadoop Track disusun dengan melihat kebutuhan bisnis berdasarkan pengalaman praktisi PHI-Integration bekerja dengan Hadoop hingga dapat berjalan optimal sesuai dengan use-case perusahaan.

Dapatkan metode pelajaran yang penuh dengan praktek dan latihan dalam melakukan:

– KONFIGURASI & OPTIMASI menggunakan YARN, HDFS, MapReduce

– MANAJEMEN DATA menggunakan Hive

– OTOMASI DATA FLOW menggunakan Kettle, Sqoop, dan Flume

Tim PHI-Integration adalah implementor solusi manajemen data yang telah lebih dari 15 tahun membantu perusahaan maupun institusi pemerintah seperti Dirjen Pajak, Kementerian BUMN, Telkomsel, The Body Shop, DIMA (Distributor Guinness), Bank BTPN, dan masih banyak lainnya.

Dengan pengalaman PHI-Integration dalam melakukan implementasi & optimasi Hadoop selama 5 tahun terakhir menangani puluhan juta bahkan miliaran row data, seri mastering kali ini akan penuh manfaat dari diskusi kasus riil.


DAFTAR SEKARANG

& Mulai karirmu sebagai Big Data Engineer!

Terbatas hanya untuk 25 peserta!


BENEFITS

– $75 of AWS Credit powered by AWS Educate

– On the spot employment opportunity

– Access to community for post-training support

PRICE IS INCLUSIVE OF

– Sertifikat

– Materi workshop

– Lunch & Snacks


PREREQUISITES

– Memiliki pengetahuan penggunaan Linux

– Memiliki pengalaman menggunakan teknologi Virtual Machine (VM)

– Memiliki pengalaman menggunakan solusi cloud (i.e. Microsoft Azure, Amazon Web Services, etc)

DETAIL WORKSHOP

30 Jan | YARN, HDFS & MapReduce: Secret Sauce of Hadoop!
31 Jan | Data Management with Hive
01 Feb | Data Flow Automation with Kettle, Sqoop, and Flume

LEARNING OUTCOMES

DAY-1 | YARN, HDFS & MapReduce: Secret Sauce of Hadoop!

– Understand Hadoop’s distributed computing mechanism and the components involved (YARN and HDFS)

– Acquire knowledge and skill set to configure and utilize Hadoop’s number of computing nodes and each node’s computing resource (disk, memory, and number of processor core)

– Understand fundamental of MapReduce programming

DAY-2 | Data Management with Hive

– Understand Hive as database platform for Hadoop with SQL-like query

– Learn basic functionality of Hive

– Learn how to troubleshoot Hive

DAY-3 | Data Flow Automation with Kettle, Sqoop, and Flume

– Use Kettle for data preparation

– Ingest data in almost real-time mode using Flume

– Export/import between relational DB  and Hadoop using Sqoop

– Integrating and automating Kettle, Sqoop, and Flume solution


 INVESTMENT & PAYMENT

Early Bird Special Price s/d 08 Jan 2018*

– Professional: IDR 5,990,000.-

– Student: IDR 999,000.- (eligible with valid student ID)

Normal Price*

– Professional: IDR 9,990,000.-

– Student: IDR 1,990,000.-

*Extra Bonus IDR 300,000.- Discount for those who pass the placement test

Payment Details:

– Nama Account: PT. Yayasan Multi Media Nusantara

– Bank: BCA Gajah Mada

– No Rekening: 0123034659

– Reference No: FirstName_LastName_MasteringHadoop


 REGISTRASI: http://gg.gg/svhadoop

MORE INFORMATION:

 

Meet

the Speakers

Meet

the Partners

Register Now

Fill in your name and email to register for the event

Register Event Form