在查看了各种工作要求后,我发现其中很多要求您成为 Hadoop 专家,使用 Spark,但我想知道这些技术有多大用处(由于我缺乏了解)?
似乎无论我需要做什么,我总能使用 Google Cloud 解决。例如,我可以使用 Cloud ML 在巨大的数据集(我目前只尝试过 GB)上训练模型。我可以使用 BQ/Redshift 进行数据准备等。
所以我的问题是,Spark/Hadoop 的未来证明如何,为什么它们是 2018 年学习的一项重要技能,它们会被替换/被替换吗?
在查看了各种工作要求后,我发现其中很多要求您成为 Hadoop 专家,使用 Spark,但我想知道这些技术有多大用处(由于我缺乏了解)?
似乎无论我需要做什么,我总能使用 Google Cloud 解决。例如,我可以使用 Cloud ML 在巨大的数据集(我目前只尝试过 GB)上训练模型。我可以使用 BQ/Redshift 进行数据准备等。
所以我的问题是,Spark/Hadoop 的未来证明如何,为什么它们是 2018 年学习的一项重要技能,它们会被替换/被替换吗?