说明:
此信息由华南木棉bbs审核并发布(查看原发布网址),应届生求职网转载该信息只是出于传递更多就业招聘信息,促进大学生就业的目的。如您对此转载信息有疑义,请与原信息发布者华南木棉bbs核实,并请同时联系本站处理该转载信息。
工作职责:
- 负责spark计算平台的算法优化和开发;
- 负责基于Spark技术的海量数据处理,分析和挖掘;
工作要求:
- 计算机或相关专业本科以上学历;
- 熟悉Spark Streaming和Spark SQL;
- 熟悉Linux/Unix平台上的Java、python、scala、C++编程,熟悉常用脚本语言
;
- 熟悉分布式系统设计范型,有大规模系统设计和工程实现的经验 ;
- 对大数据、机器学习有强烈的兴趣;对技术创新有热情和激情,具有良好的自学能力 ;
- 良好的团队合作精神,较强的沟通能力 ;
具有以下条件者优先:
- 有Spark平台、Hadoop平台开发经验者优先 ;
- 精通Scala语言,对Scala原理、底层技术有深入研究者优先;
- 有MLlib/mahout开发经验者优先;
- 熟悉聚类、分类、回归,LR,SVM等机器学习算法者优先。
有意者请将个人简历投递至
david05.liu@