职责:
  1.负责参与公司大数据基础架构平台规划,运维,监控和优化工作,保障数据平台服务的稳定性和可用性;
  2.研究大数据前沿技术,改进现有系统的服务和运维架构,提升系统可靠性和可运维性;
  3.负责公司Hadoop核心技术组件HDFS、Yarn、MapReduce、HBase、Storm大数据存储计算核心的监控和日常运维工作。
  4.完成大数据运维过程中问题定位、问题解决、并进行总结及部门的大数据基础技能培训;
  任职要求:
  1. 计算机、信息系统、数学或相近专业本科以上学历;
  2. 拥有至少3年以上Hadoop运维经验、具备基于CDH与HDP的维护经验;
  3. 熟悉Hadoop大数据生态圈服务的工作原理,具备相关实战维护经验,包括但不限于HDFS、YARN、Hive、HBase、ELK、Spark、Kafka、Zookeeper、Flume等;
  4. 至少维护过中大型Hadoop集群系统服务;
  5. 至少精通Python,shell中的一种,了解JAVA;有良好的系统性能优化及故障排除能力;
  6. 有大数据架构师工作经验更佳;