
此信息由前程无忧(51JOB)审核并发布(查看原发布网址),应届生求职网转载该信息只是出于传递更多就业招聘信息,促进大学生就业的目的。如您对此转载信息有疑义,请与原信息发布者前程无忧(51JOB)核实,并请同时联系本站处理该转载信息。
岗位职责:
1. 负责大数据&人工智能技术 (Hadoop/Spark/ELK) 生态圈平台规划、开源技术引入、部署自动化、监控、运维自动化研发;
2. 负责优化、改进运维支持系统,并保证其安全高效稳定的运行;
3. 负责处理、跟踪大数据平台的故障异常;
4. 参与hadoop2平台运维系统的需求分析、设计、编码、推广;
5. 负责开发、完善运维内部系统及辅助系统,提升运维质量及效率;
岗位要求:
1、熟悉Linux类操作系统、熟悉Shell、了解Windows Server ;
2、熟悉Hadoop2/Spark/HBase/等大数据系统,有大数据平台运维或开发经验者优先;
3、至少使用过面向对象语言,熟悉Java、Python的其中1种者优先;
4、了解机器学习常用算法:回归算法,GBDT,随机森林,协同过滤,SVM,FM等,对算法建模和预测有一定项目经验者优先;
5、强烈的责任心与主动性,对所负责工作有owner意识,并能自我驱动成长;
6、具有良好的学习能力、沟通能力、服务理念和合作精神,能在高压力下工作,具有Geek精神、愿意研究开源技术者优先;
7、计算机相关专业。