Pular para o conteúdo

Construindo pipelines de dados com Apache Kafka e Confluent

Construindo pipelines de dados com Apache Kafka e Confluent | CURSO GRATUITO

Os dados em movimento sempre se movem entre sistemas diferentes e são transformados ao longo do caminho. O conhecimento do pipeline de dados é uma ferramenta essencial para streaming de pipeline de dados no Apache Kafka.

Um pipeline de streaming é para onde enviamos dados de uma origem para um destino à medida que os dados acontecem. O pipeline de streaming ajuda a garantir dados mais precisos no sistema de destino; reagir aos dados em tempo real; distribua a carga de processamento e evite a escassez de recursos devido a um enorme fluxo de dados.

Neste curso, Tim Berglund (diretor sênior de experiência do desenvolvedor, Confluent) apresenta o conceito de pipelines de dados. Abrangendo o processo de ingestão de dados de sistemas externos usando Kafka Connect com uma captura de dados alterados (CDC).

Entre em detalhes sobre como transformar dados Kafka em tempo real usando processamento de fluxo no ksqlDB. Este curso também abordará como o Kafka Connect ajuda na saída de dados, gravando dados em um sistema externo. Faça este curso e comece a adquirir conhecimento sobre pipeline de dados.

Essa foi uma dica da Sergio Willians

Quão útil foi este post ?

Clique em uma estrela para classificar o post

nota média 5 / 5. Contagem de votos: 7

Sem votos ! Seja o primeiro a classificar !

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

plugins premium WordPress