Spark
Материал из Xgu.ru
Spark — фреймворк для анализа данных большого объёма, хорошо интегрирующийся в инфраструктуру Hadoop, в частности, работающий с HDFS и отличающийся от Hadoop большой скоростью работы.
Имеет развитое API для работы с Java, Scala и Python. Есть ограниченная возможность использования других JVM-языков: Clojure и Groovy[1].
[править] Дополнительная информация
- http://spark.apache.org/ (англ.)
- https://github.com/TheClimateCorporation/clj-spark — Clojure-binding для Spark (в процессе разработки)