职位描述:
主要是做大数据平台之上的应用场景开发,大数据平台对接口页面开发、数据仓、报表开发,java基础扎实,因为偏后端算法方面使用scale语言,希望候选人有偏spark中前端经验,要求熟练掌握python或scala或R开发语言其中1种。
岗位职责:
1. 数仓ETL程序开发(SparkSQL、HiveSQL、UDF、MR);
2. 组件运维工具开发;
3. 算法、模型工程化开发;
4. cube、挖掘工具选型分析、部署验证。
任职要求:
1. 熟练掌握python或scala开发语言;
2. 有至少一个基于hadoop平台的ETL工程开发经验(主程);
3. 熟练掌握SparkSQL、HiveSQL、UDF、MR开发;
4. 对分布式框架有所了解;
5. 有流式框架开发经验者优先;
6. 有数仓和cube工具使用经验者优先;