Descrizione
L’obiettivo della formazione è fornire conoscenze sulle tecnologie BigData, nello specifico sulla gestione e interrogazione di file di grandi dimensioni e di diversa tipologia.
I corsisti al termine delle lezioni saranno in grado di valutare a seconda dei dati quale tecnologia è preferibile utilizzare; quindi, saranno in grado di caricare in HDFS e di interrogare i dataset sia da shell sia da interfaccia grafica.
Per il percorso “Specialista Big Data” è consigliabile proseguire con i seguenti corsi: MapReduce, Hive, Impala
Prerequisiti
Aver frequentato il corso “ Introduzione ai Big Data”.
Programma
I contenuti della formazione saranno i seguenti:
- Hadoop vs DBMS relazionali
- Le “distribuzioni” Hadoop
- Il file system HDFS – concetti
- L’organizzazione dei dati
- Directory e file layout
- Basic file commands
- HUE
- Esempi ed esercitazione degli argomenti trattati
Documentazione
Durante il Corso “Hadoop” sarà fornita la documentazione utilizzata dai docenti nell’esposizione e necessaria per l’approfondimento degli argomenti affrontati.
Metodologia didattica
Il corso è svolto con metodo altamente interattivo, in modo da coinvolgere i partecipanti, sollecitarne l’interesse, favorire la discussione su casi pratici provenienti dalla loro esperienza.
Ciò permette di adattare i contenuti del corso alle esigenze degli stessi partecipanti.
Docenti
Tutti i docenti del corso di formazione sono esperti in materia di Hadoop, in grado di offrire ai partecipanti elementi didattici teorici e pratici utili al fine dell’apprendimento.