Mahout宣布由MapReduce转向Spark

前段时间,mahout宣布了一个重大的消息,mahout社区表示从现在起,他们将不再接受任何以MapReduce形式实现的算法,但是他们仍然将维护那些常用算法的MapReduce实现。另一方面,mahout宣布新的算法将基于Spark实现,他们相信Spark更丰富的编程模型及更优秀的性能将对mahout有着至关重要的作用。另一方面,据夏俊鸾介绍,Cloudera的机器学习框架oryx的执行引擎也会替换成Spark,之前oryx也是使用mapreduce。种种迹象表明,Spark已经开始各种屠杀了,非常有希望成为新一代分布式机器学习事实上的标准。让我们拭目以待。
 
此外,大家都在焦急的等待Spark1.0的发布,目前社区还在rc5的投票阶段,我估计照这架势,rc6的投票是逃不掉了,这一次真是相当的谨慎啊,不过也可以了解,毕竟1.0绝对是一个里程碑式的发布。
 
最后还有人问道Spark对Scala 2.11支持,目前社区还没有对Scala2.11版本进行全面测试,虽然Scala2.10到2.11的跳跃没有2.9到2.10那么大,但是我还是建议现阶段大家还是先乖乖用2.10版本吧。
已邀请:

要回复问题请先登录注册