Crie pipelines de dados de streaming para bancos de dados em nuvem
Os pipelines de dados fazem o trabalho pesado de ajudar as organizações a integrar, transformar e preparar dados para sistemas downstream em casos de uso operacional. No entanto, os bancos de dados legados e os pipelines ETL impedem as organizações, pois o streaming de dados em tempo real se torna essencial para os negócios.
Este Mostre-me como irá percorrer a história de um banco que usa um banco de dados Oracle para armazenar informações do cliente e o RabbitMQ como intermediário de mensagens para eventos de transação de cartão de crédito. Seu objetivo é realizar análises em tempo real em transações de cartão de crédito para sinalizar transações fraudulentas e enviá-las para o MongoDB, seu novo banco de dados em nuvem que alimenta suas notificações móveis no aplicativo.
Durante esta sessão, mostraremos passo a passo como:
- Conecte fontes de dados ao Confluent Cloud usando os conectores de origem Oracle CDC e RabbitMQ totalmente gerenciados do Confluent. Também usaremos um conector de coletor totalmente gerenciado para carregar dados agregados e transformados no MongoDB Atlas.
- Processe e enriqueça dados em trânsito usando ksqlDB para mesclar vários fluxos de dados, gerando uma visão unificada dos clientes e de suas atividades de cartão de crédito para sinalizar transações fraudulentas.
- Controle seus pipelines de dados usando Schema Registry e Stream Lineage.
Teremos uma sessão de perguntas e respostas para responder a qualquer uma de suas perguntas. Registre-se hoje e aprenda a criar seus próprios pipelines de dados de streaming.
Quando: 03 de Maio de 2023
Horário: 14:00 BRT
Idioma: Inglês
Para participar, basta CLICAR AQUI e fazer o seu registro no site oficial !
Calendário de Eventos/Treinamentos
2025Jan | ||||||
---|---|---|---|---|---|---|
D | S | T | Q | Q | S | S |
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 9 | 10 | 11 | |
12 | 13 | 15 | ||||
19 | 22 | 24 | ||||
26 | 31 | |||||