Анализируем большие объемы данных с Apache Spark +10


image
С анализом больших объемов данных постепенно начинают сталкиваться не только крупнейшие IT-компании, но и обычные разработчики. В нашей компании в ряде проектов такая задача возникает, и мы решили систематизировать накопленный опыт, поделившись с коллегами по i-Free и нашими партнерами наиболее эффективными инструментами и технологиями. Сегодня речь пойдет о применении Apache Spark


В докладе для очередного нашего технического мит-апа наш коллега из проекта MoneyTap рассказал про простейшие случаи применения Apache Spark, инструмента, который мы используем для обработки больших объемом данных уже больше года. В докладе есть все, для того, чтобы вы смогли самостоятельно написать простейшую систему аналитики для вашего проекта, а также несколько личных рекомендаций по работе с этим замечательным инструментом.

Видео:


Презентация:




К сожалению, не доступен сервер mySQL