用机器学习的方法来处理大数据,是直接学 Spark,还是重点学习 Hadoop,了解 Spark?

众所周知,spark确实有很多方面要优于Hadoop,但是毕竟还不太成熟,我现在研一,两年后找工作,方向是用机器学习的方法来处理大数据,以后是往工程师的方向发展。我是应该直接学习Spark,还是重点学习Hadoop,了解Spark?请分析下这两种学习方式的利弊。谢谢。

未来已来提问于 2018-03-30 18:01
1 个回答
  • 小马奔腾2018-04-19 14:54

    直接学spark。hadoop侧只需要学习HDFS,其他了解一下。