夜晚浅谈-大数据高级工程师

250680271

2.5
2

2020/06/12

回首学习之路,感慨颇多,长达一年学习中最幸运的事有汤老师陪伴,最终所有的辛辛苦都没有白付,努力终于被看见,也顺利找到大数据相关工作,开始了新的职业生涯之旅。

在深夜,回顾所学我写下这篇文章,简单回顾了自己的学习经历的点滴,对大数据课程进行一个表白。


首先,在学习大数据的过程中,咱们需要扎实掌握像Java,sql,Linux这些基础知识,这样才能在学习后面Spark,Hadoop能快速读懂代码,掌握核心原理。但事有例外,如果有的同学一开始基础没学扎实或不太牢固也没太大关系,重点是要能理解其设计思路,了解如何解决相关问题,在后面学习的时候一定要多回顾前面内容抽时间补好基础。多看、多读、多写代码,实践出真知与诸君共勉。


其次,动手实践是必不可少的一步,,毕竟有的代码,过眼不过脑,有的项目也不是你看会就能会的。如果在前期的练手中如果写不出来,也需要尽量用语言描述需要完成的功能,先掌握其方法,后面通过多次反复练习,来增加自己的代码量,我相信一名好的程序员都是代码一点点“喂”出来的。在学习过程中,若有不懂的知识,多多提问,老师都会很及时的回复进行讲解,在这样的学习环境中入坑,再填坑,更能加深印象后期敲代码也更加的手到擒来。


hou,也是最重要的一点就是课程中的项目案例。一定要跟着老师的思路,了解项目的整个运行过程,了解到怎样做这个项目,这个项目中使用了哪些技术栈,如何进行优化等等。项目贯穿整个学习过程以及是面试的关键,一定要重视项目,我能顺利找到满意工作与这一点关系甚大。


因为我是专科出身学习较低,也有可能是简历的原因,在海投简历后得到面试机会不多,主要是建行外派,和咪咕文化外派等,面试过程中hr的提问全是针对简历上所写的项目细致的进行针对性提问。

我整理一些我面试过程中面试官问的问题供大家参考:

       window窗口的原理?

       对hadoop的认识?

       solr中的collection指的什么?

       查询hbase数据,使用solr存储的数据用于做什么?

       什么是hfile,hbase的架构?

       你们公司使用kafka消费数据,用streaming间隔处理时间?

       对steaming读取的数据,用什么方式写入habse?

       简单介绍如何用mapreduce进行转换hfile后在导入habse?

       consumer消费时处理间隔时间是多少,处理数据量多大,多少broker进行并发处理数据?

       ......

以上是大概被问到的一些问题。

 

此外对于和我情况类似的学弟学妹们一个衷告,咱们为了能得到更多的面试机会,最hao在简历中多加入课程中的项目进行美化润色。一方面是充实简历的丰满度,另一方面市面上不少公司都要求3年以上的工作经验。但同学们也不用过于担心,以我面试经验来看课程中的项目案例很多且足够应对面试,祝你们面试成功!

在此希望大家认真学习,你的努力不会白费终将被看见,祝大家早日找到心仪工作。


代理合作
关注微信

扫一扫关注我们

客服投诉