DEVKI: КУРС APACHE KAFKA ДЛЯ ИНЖЕНЕРОВ ДАННЫХ

DEVKI: КУРС APACHE KAFKA ДЛЯ ИНЖЕНЕРОВ ДАННЫХ
2 июня 2025
ПОНЕДЕЛЬНИК
14:00

ПРОГРАММА КУРСА “APACHE KAFKA ДЛЯ ИНЖЕНЕРОВ ДАННЫХ”

1. Основные концепции и архитектура Apache Kafka

  • Архитектура и история возникновения Kafka
  • Основные абстракции и понятия
  • Основные API

Изучим основные компоненты и API Kafka, принципы их взаимодействия и killer features.

2. Topic, partition и offset в Apache Kafka

  • Понятие топика, раздела и смещения
  • Управление Topic-ами из консоли
  • Отслеживание последнего прочитанного сообщения
  • Семантики доставки сообщений (at least once, at most once, exactly once)

Разберемся в анатомии топика, использовании механизмов партиционирования и consumer групп.

3. Producer API

  • Публикация сообщений с помощью кода

Погрузимся в детальную настройку и использование Kafka Producer-а и best practices на стороне производителя сообщений.

4. Consumer API

  • Прием сообщений point-to-point
  • Kafka Broadcasting и группы. Гибкий процесс приема сообщений.

Научимся принимать сообщения и на практике реализуем минимальное приложение, работающее с Kafka.
Познакомимся с концепцией групп (consumer groups) и научимся настраивать группы для работы с сообщениями в режиме broadcasting.

5. Потоковая обработка в Kafka

  • Архитектура Kafka Streams
  • Потоковая обработка в Apache Kafka. Основные абстракции Kafka Streams

Изучим общие принципы и приемы в процессе работы с Kafka Streams.

6. Kafka Streams DSL

  • Kafka Streams DSL – теория и практика
  • Создание Kafka Streams приложения

Изучим специализированный язык описания (DSL) потоков данных в Kafka и научимся его использовать.
Напишем базовое Kafka Streams приложение.

7. Processor API

  • Использование Processor API

Научимся работать на “низком” уровне – создавать топологии и перенаправлять по ним сообщения, использовать расписание (punctuator).
Напишем приложение с использованием Processor API.

8. Kafka Connect

  • Архитектура Kafka Connect
  • Виды Kafka Connector-ов
  • Готовые Connector и Confluent HUB
  • Connect API

Разберемся в том, какие готовые Connector-ы есть для Kafka, создадим собственные Source и Sink коннекторы.

9. Inside Kafka

  • Особенности хранения данных
  • Сериализация и десериализация данных и Confluent Registry
  • Компактируемые топики и retension
  • Конфигурация и производительность процесса работы с данными в Kafka
  • ksqlDB как способ создания не сложных потоковых приложений
  • использование Producer и Consumer API с другими языками программирования

изменить информацию сообщить о проблеме

С этим мероприятием что-то не так?

  • Неправильная дата или время
  • Неправильный адрес
  • Неправильно указан тип мероприятия
  • Плохое описание
  • Мероприятие отменено или отложено
  • Неприемлемый/неприличный контент
  • Нарушение авторских прав
  • Это спам
  • Не получается купить билет

Онлайн

похожие мероприятия

Все мероприятия в онлайне