Hadoop Spark Hive Big Data Admin
O instrutor Shivgan Joshi está disponibilizando GRATUITAMENTE na Udemy o curso Hadoop Spark Hive Big Data Admin Class Bootcamp Course NYC.
Abaixo a descrição do curso
Introdução Curso Hadoop Big Data
- Introdução ao Curso
- Principais comandos do Ubuntu
- Compreender NameNode, DataNode, YARN e infraestrutura Hadoop
Instalação do Hadoop
- Instalação do Hadoop e comandos HDFS
- Mapreduce baseado em Java
- Hadoop 2.7 / 2.8.4
- Aprenda os comandos do HDFS
- Configurando Java para mapreduce
Introdução ao Cloudera Hadoop e estudo da certificação Cloudera
SQL e NoSQL
- Instalação SQL, Hive e Pig (mundo RDBMS e mundo NoSQL)
- Mais Hive e SQOOP (Cloudera – Sqoop e Hive na Cloudera.
- Drivers JDB.
- Pig
- Introdução ao NoSQL, MongoDB, instalação do Hbase
Entendendo os diferentes bancos de dados
Hive
- Partições e Bucketing do Hive
- Tabelas externas e internas do Hive
Spark Scala Python
- Instalações e comandos do Spark
- Planilhas Spark Scala Scala
- Hadoop streaming e Map Reducing Python
- PySpark – (Python – Básico).
- RDDs.
Executando o Spark-shell e importando dados de arquivos csv
PySpark – Executando RDD
Projetos de médio prazo
- Extraia dados do csv online e mova para o Hive usando a importação do hive
- Extraia dados do spark-shell e execute a redução do mapa para a primeira página do fox news
- Crie dados no MySQL e, usando SQOOP, mova-os para o HDFS
- Usando o Jupyter Anaconda e o Spark Context, execute a contagem no arquivo que tem a primeira página do Fox news
- Salve dados brutos usando vírgula delimitadora, espaço, tabulação e barra vertical e mova-os para o contexto de faísca e o shell de faísca
Dados de transmissão – fluxo de dados
- Transmissão de mensagens Kafka
Para começar o seu aprendizado, é simples ! Basta ter uma conta na Udemy e CLICAR AQUI para ser redirecionado ao curso !
Essa foi uma dica do Rodinei Ferreira
O curso é em inglês. Caso você ainda não domine o idioma, agora é a hora de começar ! Há diversos cursos excelentes que também são gratuitos, como divulgado no link abaixo: