Construindo streaming de dados com Confluent na AWS 🗓
Aprenda a usar o Confluent Cloud e o ksqlDB para processar dados históricos e eventos em tempo real na AWS. Inscreva-se agora !
Aprenda a usar o Confluent Cloud e o ksqlDB para processar dados históricos e eventos em tempo real na AWS. Inscreva-se agora !
Aprenda a criar seus próprios pipelines de streaming de dados para enviar dados para vários sistemas downstream, incluindo MongoDB, a fim de potencializar casos de uso operacional em tempo real.
Este webinar apresentará a história de um banco que usa um banco de dados Oracle para armazenar informações de clientes e o RabbitMQ como intermediário de mensagens para eventos de transação de cartão de crédito…
Este webinar apresentará a história de um banco que usa um banco de dados Oracle para armazenar informações confidenciais de clientes e o RabbitMQ como intermediário de mensagens para eventos de transação de cartão de crédito…
Usando o SMT, você pode modificar os dados e suas características à medida que passam pelo pipeline do Kafka Connect, sem precisar de processadores de fluxo adicionais
Este evento irá percorrer a história de um banco que usa um banco de dados Oracle para armazenar informações do cliente e o RabbitMQ como intermediário de mensagens para eventos de transação de cartão de crédito
Nesta sessão de 90 minutos, você aprenderá como aproveitar o Kafka para passar de um processo em batch para uma arquitetura orientada a eventos em tempo real
Aprenda a replicar dados com Kafka e Oracle CDC na segunda parte desta série de artigos. Saiba como instalar o Confluent Platform de forma fácil.