Amazon Web Services (AWS) - Big Data

Szkolenie Amazon Web Services z Big Data wprowadzi uczestników w świat przetwarzania danych Big Data z wykorzystaniem platformy AWS. Przekazana zostanie praktyczna wiedza na temat frameworków Hadoop, Pig, Hive oraz serwisów AWS które umożliwiają przetwarzanie wielkich ilości danych w dużych, rozproszonych klastrach, takich jak EMR, DynamoDB, RedShift czy Amazon Kinesis. Wszystko to oparte jest na interesujących ćwiczeniach praktycznych.

Plan szkolenia

  • Wstęp
  • Wprowadzenie do chmury publicznej i Big Data
  • Omówienie produktów Amazon Web Services wspierających Big Data: EMR, Kinesis, DynamoDB i RedShift
  • Wprowadzenie do Hadoop, Hive, Pig i Streaming
  • Amazon Elastic MapReduce (Hadoop)
  • Wprowadzenie
  • MapReduce, Hadoop oraz HDFS
  • Architektura i grupy instancji
  • Rodzaje instancji
  • Wykorzystanie Hive w EMR
  • Wykorzystanie Pig w EMR
  • Wykorzystanie Impala w EMR
  • Przechowywanie danych w HBase
  • Wizualizacja daych Big Data
  • Koszty korzystania z usługi
  • Amazon DynamoDB
  • Wprowadzenie
  • NoSQL
  • Typy danych i operacje
  • Konsystencja
  • DynamoDB API
  • DynamoDB i Big Data, integracja z EMR
  • Koszty korzystania z usługi
  • Amazon Kinesis
  • Wprowadzenie
  • Kinesis i Big Data, integracja z EMR
  • Konfiguracja
  • Koszty korzystania z usługi
  • Amazon RedShift
  • Wprowadzenie
  • RedShift i Big Data
  • Konfiguracja
  • Koszty korzystania z usługi
  • Amazon Cloud Watch
  • Wprowadzenie
  • Architektura CloudWatch
  • Alarmy i metryki
  • Sposób użycia
  • Koszty korzystania z usługi
  • Egzamin i certyfikat
  • Szkolenie zakończone jest krótkim egzaminem. Każdy uczestnik otrzymuje certyfikat Akademii Wirtualizacji.
  • Czas Trwania
  • 3 dni
  • Dostępne miejsca szkolenia
  • Kraków, Katowice, Wrocław
  • Metoda
  • Wykład + Warsztat
  • Każdy uczestnik ma do dyspozycji indywidualny zestaw niezbędnych narzędzi do przeprowadzenia wszystkich ćwiczen praktycznych.
  • Przeznaczenie i wymagania
  • Szkolenie przeznaczone jest dla programistów/architektów systemowych oraz osób zajmujących się zagadnieniami Big Data. Wymagana znajomość podstaw programowania oraz baz danych. Mile widziana znajomośc języka Java.
  • Korzyści
  • Po ukończonym szkoleniu uczestnicy będą posiadali praktyczną wiedzę na temat przetwarzania danych za pomocą podejścia MapReduce i serwisu Elastic MapReduce, frameworka Hadoop, Pig i Hive. Dodatkowo uczestnicy dowiedzą się jak tworzyć środowiska Big Data z wykorzystaniem Amazon DynamoDB, RedShift oraz Kinesis.
Copyright © 2015 Intlabs. Wszelkie prawa zastrzeżone.
"Amazon Web Services", "Auto Scaling", "AWS","S3", "EC2", "SQS", "SNS", "SES", "SWF", "EMR", "RDS", "VPC", "CloudFront", "CloudWatch", "Direct Connect", "Route 53", "Glacier", "CloudSearch", "ElastiCache", i "SimpleDB" są zastrzeżonymi znakami towarowymi firmy Amazon.com, Inc.
Wszystkie inne produkty i usługi mogą być zastrzeżonymi znakami towarowymi lub usługami innych firm będących ich właścicielami.