众所周知,spark确实有很多方面要优于Hadoop,但是毕竟还不太成熟,我现在研一,两年后找工作,方向是用机器学习的方法来处理大数据,以后是往工程师的方向发展。我是应该直接学习Spark,还是重点学习Hadoop,了解Spark?请分析下这两种学习方式的利弊。谢谢。
直接学spark。hadoop侧只需要学习HDFS,其他了解一下。
* 版权声明 :社区问答内容由互联网用户编辑提交,本社区不拥有所有权,也不承担相关法律责任。如果您发现本社区中有涉嫌侵权、暴力、色情、反
动等言论,欢迎发送邮件至: 进行举报并提供初步证明,一经查实,本社区将立刻删除相关内容。