Pular para o conteúdo

Hadoop Starter Kit

Hadoop Starter Kit

Big Data In Real World está disponibilizando GRATUITAMENTE na Udemy o curso Hadoop Starter Kit.

Abaixo a descrição do curso

O objetivo deste curso é orientá-lo passo a passo em todos os componentes principais do Hadoop, mas, mais importante, tornar a experiência de aprendizado do Hadoop fácil e divertida.

Ao se inscrever neste curso, você também pode obter acesso gratuito ao nosso cluster de treinamento Hadoop de vários nós, para que possa experimentar o que aprendeu imediatamente em um ambiente real distribuído de vários nós.

Na primeira seção, você aprenderá sobre o que é big data com exemplos. Discutiremos os fatores a serem considerados ao considerar se um problema é um problema de big data ou não. Falaremos sobre os desafios com as tecnologias existentes quando se trata de computação de big data. Vamos detalhar o problema de Big Data em termos de armazenamento e computação e entender como o Hadoop aborda o problema e fornecer uma solução para o problema.

Na seção HDFS, você aprenderá sobre a necessidade de outro sistema de arquivos como o HDFS. Compararemos o HDFS com os sistemas de arquivos tradicionais e seus benefícios. Também trabalharemos com HDFS e discutiremos a arquitetura do HDFS.

Na seção MapReduce, você aprenderá sobre os fundamentos do MapReduce e as fases envolvidas no MapReduce. Analisaremos cada fase em detalhes e entenderemos o que acontece em cada fase. Em seguida, escreveremos um programa MapReduce em Java para calcular o preço máximo de fechamento para símbolos de ações a partir de um conjunto de dados de ações.

Nas próximas duas seções, apresentaremos o Apache Pig & Hive. Tentaremos calcular o preço máximo de fechamento para símbolos de ações a partir de um conjunto de dados de ações usando Pig e Hive.

O que você aprenderá

  • Entenda o problema de Big Data em termos de armazenamento e computação
  • Entenda como o Hadoop aborda o problema de Big Data e forneça uma solução para o problema
  • Entenda a necessidade de outro sistema de arquivos como o HDFS
  • Trabalhar com HDFS
  • Entenda a arquitetura do HDFS
  • Entenda o modelo de programação MapReduce
  • Entenda as fases no MapReduce
  • Visualize um problema no MapReduce
  • Escreva um programa MapReduce com compreensão completa das construções do programa
  • Escrever instruções Pig Latin
  • Criar e consultar tabelas Hive

Para começar o seu aprendizado, é simples ! Basta ter uma conta na Udemy e CLICAR AQUI para ser redirecionado ao curso !

Essa foi uma dica do Will Siqueira

Equipe GPO

Equipe GPO

Equipe GPO (Grupo de Profissionais Oracle)

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

plugins premium WordPress