Crie pipelines de dados de streaming para bancos de dados em nuvem
Os pipelines de dados fazem o trabalho pesado de ajudar as organizações a integrar, transformar e preparar dados para sistemas downstream em casos de uso operacional. No entanto, os bancos de dados legados e os pipelines ETL impedem as organizações, pois o streaming de dados em tempo real se torna essencial para os negócios.
Este Mostre-me como irá percorrer a história de um banco que usa um banco de dados Oracle para armazenar informações do cliente e o RabbitMQ como intermediário de mensagens para eventos de transação de cartão de crédito. Seu objetivo é realizar análises em tempo real em transações de cartão de crédito para sinalizar transações fraudulentas e enviá-las para o MongoDB, seu novo banco de dados em nuvem que alimenta suas notificações móveis no aplicativo.
Durante esta sessão, mostraremos passo a passo como:
- Conecte fontes de dados ao Confluent Cloud usando os conectores de origem Oracle CDC e RabbitMQ totalmente gerenciados do Confluent. Também usaremos um conector de coletor totalmente gerenciado para carregar dados agregados e transformados no MongoDB Atlas.
- Processe e enriqueça dados em trânsito usando ksqlDB para mesclar vários fluxos de dados, gerando uma visão unificada dos clientes e de suas atividades de cartão de crédito para sinalizar transações fraudulentas.
- Controle seus pipelines de dados usando Schema Registry e Stream Lineage.
Teremos uma sessão de perguntas e respostas para responder a qualquer uma de suas perguntas. Registre-se hoje e aprenda a criar seus próprios pipelines de dados de streaming.
Quando: 03 de Maio de 2023
Horário: 14:00 BRT
Idioma: Inglês
Para participar, basta CLICAR AQUI e fazer o seu registro no site oficial !
Calendário de Eventos/Treinamentos
2024Dez | ||||||
---|---|---|---|---|---|---|
D | S | T | Q | Q | S | S |
1 | 2 | 6 | ||||
8 | 9 | |||||
15 | 20 | |||||
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 | ||||