Hadoop Einstieg

In diesem Kurs lernen die Teilnehmer die Einsatzgebiete von Hadoop kennen. Hadoop ermöglicht es, intensive Rechenprozesse mit großen Datenmengen (Big Data) auf Clustern durchzuführen. Die Teilnehmer erarbeiten die unterschiedlichen Installationsmethoden von Hadoop und dessen Administration.

 

Inhalt

  • Hadoop – Einführung und Überblick
  • Hadoop-Distributionen
  • Hadoop installieren und konfigurieren
    • manuelle Installation
    • Hortonworks
    • Cloudera
  • Funktionsweise des Hadoop Distributed File Systems (HDFS)
  • Cluster Framework konfigurieren mit Hadoop YARN
  • Konfiguration des Hadoop Clusters
    • Parallel Jobs
    • MapReduce Job
  • Hadoop-Erweiterung im Detail (Logfiles,Webinterface, Parameter)
    • HBase
    • Hive
    • Pig
    • Sqoop
    • Zookeeper
  • Paralleles Abarbeiten mit Hadoop MapReduce
  • Troubleshooting
  • Benchmark Tools und deren Verwendung
  • Importieren von Daten mittels Sqoop

 

Termine

05.12.–07.12.2017