Amazon Web Services (AWS) - Big Data
Szkolenie Amazon Web Services z Big Data wprowadzi uczestników w świat przetwarzania danych Big Data z wykorzystaniem platformy AWS. Przekazana zostanie praktyczna wiedza na temat frameworków Hadoop, Pig, Hive oraz serwisów AWS które umożliwiają przetwarzanie wielkich ilości danych w dużych, rozproszonych klastrach, takich jak EMR, DynamoDB, RedShift czy Amazon Kinesis. Wszystko to oparte jest na interesujących ćwiczeniach praktycznych.
Plan szkolenia
- Wprowadzenie do chmury publicznej i Big Data
- Omówienie produktów Amazon Web Services wspierających Big Data: EMR, Kinesis, DynamoDB i RedShift
- Wprowadzenie do Hadoop, Hive, Pig i Streaming
- Wprowadzenie
- MapReduce, Hadoop oraz HDFS
- Architektura i grupy instancji
- Rodzaje instancji
- Wykorzystanie Hive w EMR
- Wykorzystanie Pig w EMR
- Wykorzystanie Impala w EMR
- Przechowywanie danych w HBase
- Wizualizacja daych Big Data
- Koszty korzystania z usługi
- Wprowadzenie
- NoSQL
- Typy danych i operacje
- Konsystencja
- DynamoDB API
- DynamoDB i Big Data, integracja z EMR
- Koszty korzystania z usługi
- Wprowadzenie
- Kinesis i Big Data, integracja z EMR
- Konfiguracja
- Koszty korzystania z usługi
- Wprowadzenie
- RedShift i Big Data
- Konfiguracja
- Koszty korzystania z usługi
- Wprowadzenie
- Architektura CloudWatch
- Alarmy i metryki
- Sposób użycia
- Koszty korzystania z usługi
- Szkolenie zakończone jest krótkim egzaminem. Każdy uczestnik otrzymuje certyfikat Akademii Wirtualizacji.
- 3 dni
- Kraków, Katowice, Wrocław
- Wykład + Warsztat
- Każdy uczestnik ma do dyspozycji indywidualny zestaw niezbędnych narzędzi do przeprowadzenia wszystkich ćwiczen praktycznych.
- Szkolenie przeznaczone jest dla programistów/architektów systemowych oraz osób zajmujących się zagadnieniami Big Data. Wymagana znajomość podstaw programowania oraz baz danych. Mile widziana znajomośc języka Java.
- Po ukończonym szkoleniu uczestnicy będą posiadali praktyczną wiedzę na temat przetwarzania danych za pomocą podejścia MapReduce i serwisu Elastic MapReduce, frameworka Hadoop, Pig i Hive. Dodatkowo uczestnicy dowiedzą się jak tworzyć środowiska Big Data z wykorzystaniem Amazon DynamoDB, RedShift oraz Kinesis.