O Apache Kafka é uma plataforma de streaming de dados de alto desempenho e distribuída. Ele permite a ingestão, armazenamento e processamento de grandes volumes de dados em tempo real. Com sua arquitetura escalável e tolerante a falhas, o Kafka pode ser implementado em clusters distribuídos, lidando com altas taxas de transferência e latência extremamente baixa. Ele oferece recursos avançados, como particionamento, replicação e retenção de mensagens, garantindo a durabilidade e confiabilidade dos dados. O Kafka é amplamente utilizado em casos de uso que requerem processamento de eventos em tempo real, ingestão de dados, log de registros e integração de sistemas. Empresas de diversos setores aproveitam o Kafka para lidar com suas necessidades de streaming de dados, aproveitando sua escalabilidade e capacidade de processar dados em tempo real.
O Kafka Connect é um componente do Apache Kafka usado para executar a integração de streaming entre o Kafka e outros sistemas, como bancos de dados, serviços em nuvem, índices de pesquisa, sistemas de arquivos e armazenamentos de key-value…
Aprenda o valor da integração com o Confluent ao buscar oferecer aos clientes uma solução para trabalhar com fluxos de dados em tempo real em sua plataforma…
Aprenda a criar seus próprios pipelines de streaming de dados para enviar dados para vários sistemas downstream, incluindo MongoDB, a fim de potencializar casos de uso operacional em tempo real.
Neste módulo, você aprenderá sobre o conceito-chave do uso de schemas como contratos, armazenados em um schema registry. Você aprenderá sobre o design fracamente acoplado do Kafka e como ele resolve um problema, mas abre a porta para que os aplicativos cliente possivelmente fiquem fora de sincronia enquanto você faz alterações no design e na estrutura de seus objetos de modelo…
Aprenda tudo sobre Apache Kafka com o curso GRATUITO KAFKA 101, oferecido pelo instrutor Tim Berglund na Confluent. Entenda a plataforma de streaming de eventos.
Este webinar apresentará a história de um banco que usa um banco de dados Oracle para armazenar informações de clientes e o RabbitMQ como intermediário de mensagens para eventos de transação de cartão de crédito…
Nesse webinar, você será guiado pela estratégia de microsserviços da ACERTUS e compartilhará as melhores práticas para agilizar os cronogramas de desenvolvimento e teste com governança criada especificamente para streaming de dados e Kafka…
Venha aprender como configurar o Confluent Cloud para fornecer um plano de dados singular e global conectando todos os seus sistemas, aplicativos, armazenamentos de dados e ambientes…