
此信息由山东大学审核并发布(查看原发布网址),应届生求职网转载该信息只是出于传递更多就业招聘信息,促进大学生就业的目的。如您对此转载信息有疑义,请与原信息发布者山东大学核实,并请同时联系本站处理该转载信息。
公司介绍
星环信息科技(上海)有限公司是目前国内极少数掌握企业级大数据Hadoop和Spark核心技术的高科技公司,从事大数据时代核心平台数据库软件的研发与服务。在全球去IOE的大背景下,Hadoop技术已成为公认的替代传统数据库的大数据产品。公司产品Transwarp Data Hub (TDH)的整体架构及功能特性比肩硅谷同行,产品性能在业界处于领先水平。
公司研发团队是国内最早的大数据Hadoop发行版团队,从2009年起即开始致力于大数据Hadoop平台软件的自主创新和开发,与硅谷同类公司同时起步;2011年在中国率先推出Hadoop发行版;之后,团队负责人原英特尔亚太研发中心CTO孙元浩、亚太区销售总监佘晖离开英特尔,创办星环科技,注册资金一千万。以上海为核心总部,并在北京、广州、南京、济南等地分设办事处。
公司研发团队大多来自知名外企,员工的85%为研发工程师,以博士硕士为主。这样的研发团队规模在国内专业大数据Hadoop开发的团队中并不多见。
TDH是基于Hadoop和Spark的分布式内存分析引擎和实时在线大规模计算分析平台,相比开源Hadoop版本有10x~100x倍性能提升,可处理GB到PB级别的数据。星环科技同时提供存储、分析和挖掘大数据的高效数据平台和服务。
POC工程师
职位要求:
1.计算机或相关专业本科(或以上)学历
2.熟悉Linuxshell以及SQL 语言
3.熟悉Java语言
4.了解Hadoop,熟悉Hadoop,HBase,Hive基本命令
5.对Hadoop/HBase/Hive/Sqoop/Flume有兴趣
6.做事认真负责,沟通能力良好,自学能力较强,能够出差
工作地点:上海、北京
云计算平台开发工程师
工作职责:
基于Docker开源社区,开发高可靠自动化的云计算平台
职位要求:
1.掌握基础的计算机专业知识,如Linux,网络,数据库,操作系统等
2.对新兴事物有强烈的好奇心,有将最新的技术转化为产品的热情
3.有与人沟通的能力,乐意分享,敢于承诺
4.有互联网或大数据相关经验
5.日常工作中熟练掌握并使用(Go, Java, C )至少一种编程语言,熟悉Go语言者有加分,参与过开源项目者有加分
云计算平台运维工程师
工作职责:
1.基于Docker平台,开发并优化从测试到部署的全套流程
2.支持并推广标准化流程的使用,提高开发效率
3.保障生产系统可靠,安全,稳定地运行
职位要求:
1.掌握基础的计算机专业知识,如Linux,Git/SVN版本控制系统等
2.掌握ApacheMaven/SBT/Ant编译环境的搭建和维护
3.有与人沟通的能力,乐意分享,敢于承诺
4.熟悉Docker/Go语言者优先
5.日常工作中熟练掌握并使用(Go, Java, C )至少一种编程语言
6.日常工作中熟练掌握并使用(Python, Shell)至少一种脚本语言
7.对Hadoop/Hbase等大数据平台研究有兴趣者欢迎投递
安全开发工程师
工作职责:
负责Kafka/Spark/Hive/Hadoop等基础平台的安全功能开发
职位要求:
1.对安全体系结构有一定了解,有身份认证和权限管理开发经验优先
2.熟练掌握Java或Scala语言,了解JAAS,SASL优先
3.熟悉计算机网络,对网络安全有一定了解
4.熟悉主流分布式计算框架,对研究源码有兴趣者优先
5.负责认真,有较强的团队合作能力
并行计算平台软件工程师
工作职责:
负责基于Spark的并行计算平台的开发与优化工作
职位要求:
1.熟悉并行计算或者分布式计算
2.有深厚的操作系统,数据结构和算法基础
3.熟练掌握Java 或Scala语言
4.较强的团队合作能力
分布式数据库开发工程师
工作职责:
负责星环分布式存储系统的设计,开发与运维工作。
职位要求:
1.掌握基础计算机专业知识,具备优秀的代码编写能力。
2.熟悉linux基本原理,熟悉网络编程
3.良好的沟通与团队协作能力。
4.敢于创新,乐于接受挑战。
5.具备快速定位解决问题的能力。
优先条件:
1.有分布式存储系统(如HBase/Mongdb/cassandra等)开发或运维经验者优先。
2.有搜索引擎(如Elasticsearch/Solr/Lucene等)开发经验者优先。
3.熟练掌握Java/C 语言者优先。
SQL编译器开发工程师
工作职责:
负责基于hadoop的SQL编译器,包括SQL的静态编译,解析执行计划和优化器的开发工作
职位要求:
1.熟悉编译原理,操作系统,有良好的数据结构和算法功底
2.熟悉SQL语言,了解存储过程和函数优先
3.有编译器开发经验者优先
4.较强的团队合作能力
中间件开发工程师
工作职责:
负责开发基于Hadoop的报表,ETL工具以及连接器的开发工作
职位要求:
1. 熟悉JAVA或者C
2. 熟悉SQL语言
3. 有良好的数据结构和算法功底
4.熟悉计算机网络
运维管理平台开发工程师
工作职责:
负责开发自动化的管理超大规模集群的运维管理平台
职位要求:
1. 熟悉计算机网络,操作系统
2. 熟悉Java或者Scala语言
3. 熟悉Linux管理工具
4. 有良好的系统分析,故障诊断能力者优先
流式计算开发工程师/高级工程师
工作职责:
负责基于Spark的流式计算引擎的设计与开发工作
职位要求:
1.熟悉分布式计算或者并行计算
2.熟悉Spark,Kafka优先
3.熟悉Java或者Scala语言
4.熟悉计算机网络
5.有良好的系统分析,故障诊断能力者优先
6.较强的团队合作能力
数据挖掘算法工程师
工作职责:
1、分布式机器学习算法的开发和优化;
2、在线和离线海量数据分析平台的设计和开发;
3、大规模数据挖掘系统的设计和实现。
职位要求:
1.本科及以上学历,数学/软件工程/计算机/通信/信息安全等专业
2.熟悉常用的机器学习算法,了解不同模型的特性,具有灵活运用模型进行数据分析的能力
3.熟悉linux平台、熟悉脚本(shell、python等)编程
4.对Hadoop和spark感兴趣,有兴趣研究分布式数据挖掘项目
5.具有良好的沟通能力,和良好的团队合作精神
6.优秀的分析问题和解决问题的能力,对解决具有挑战性问题充满激情
有以下任一领域有深入研究者优先:
1.机器学习/信息检索/自然语言处理/统计学习/博弈论/人工智能
2.具有海量数据挖掘、分布式计算或高性能并行计算应用经验者优先
3.具有行业数据分析经验者优先
公司官网:tr***.io[点击查看]
请发简历至:hr@transwarp.io
咨询电话:021-54265007*140
QQ:2927025862
微信:18616700672
(编辑:王伟林)