Разработчики больших данных постоянно востребованы, но освоение стека технологий для работы с колоссальными объемами информации часто кажется непосильной задачей. Этот курс — 33 часа практики, закрывающий путь от основ Hadoop до развертывания сложных конвейеров обработки данных на рабочем уровне.
Внутри разбираются ключевые инструменты современной Big Data экосистемы: от управления хранилищами Hadoop и анализа данных в Hive до интеграции Spark с NoSQL-базами данных Cassandra и HBase. Вы научитесь работать с потоковыми данными через Kafka и Spark Streaming, а также освоите Apache NiFi для автоматизации процессов. Курс ориентирован на тех, кто хочет пройти путь от локальной разработки до настройки производительности и устранения неполадок в реальных проектах.
Отзывов пока нет. Будьте первым!