搜索
登录注册

职位详情

岗位7 岗位描述: 排查和解决搬迁工程中遇到的Oncal、运维问题岗位要求: 有一定的大数据相关经验,能够协助排查大数据相关问题熟悉python、shell等其中一门编程语言,具备脚本开发能力理解、沟通能力强,最好有跨团队横向沟通、协作经验 岗位8 最好以前是数仓开发,转型做技术支持 岗位职责: 大型java后端运维背景 负责搬迁工具的用户支持、问题排查和系统运维等工作,沉淀工具手册,支持用户完成搬迁项目 技术要求: 熟悉Java前后端系统的运维工作,能够根据日志和数据库等进行问题的排查和解决" 岗位9 上海市杨浦区民府路 678 号上海新江湾广场 T2B 前一个月,需要驻场在字节办公,地址如上,后面在微创大厦办公或按需去客户方" 岗位描述: 基于现有的数据集成工具,协助业务侧完成任务链路迁移排查和解决搬迁工程中遇到的Oncall、运维问题岗位要求: ·有一定的大数据相关经验,能够协助排查大数据相关问题熟悉python、shell等其中一门编程语言,具备脚本开发能力理解、沟通能力强,最好有跨团队横向沟通、协作经验岗位6 "熟练使用SQL进行数据开发工作,并有一定数据分析能力 熟悉python、shell等其中一门编程语言,具备脚本开发能力 理解、沟通能力强,最好有跨团队横向沟通、协作经验" 岗位4 大数据开发工程师 "数据研发 (NoteBook方向) 互联网数仓技术背景 需要有很强的互联网数仓背景,无需指导能够自己完成复杂问题的解决和跟进。 有数据仓库建设、重构和搬迁项目和方案设计经验(互联网数据搬迁更优) 有复杂类型的数仓任务改造、改写、任务类型转换工作经验 有百亿数据体量、性能优化和质量保障工作经验 熟悉python、shell、java、Pyspark等其中2种脚本开发能力" 岗位1 大数据开发技术支持工程师 岗位:引擎技术支持(oncall)【按照数据开发,但做oncall的事情】 岗位描述: 负责大数据引擎(Spark、flink,hive)产品问题的响应、问题处理与跟踪等技术支持工作 负责产品问题处理后,将问题沉淀到文档能够进行复用 岗位要求: 熟悉Spark,flink以及HIVE产品,有以上产品问题的处理工作经验 熟悉以上产品常见运维手段,具备通过日志分析问题能力(如:sparkUl、log等) 调整:离线和实时,离线这一部分高优,熟悉spark,hive。大数据技术支持 关键词,比如EMR、Spark技术支持方向的,优先参考微软、阿里、华为有类似这种大厂技术支持经验的候选人,对标阿里L2 一个做Flink,一个做Spark技术支持" 岗位5 大数据管理工程师 "业务希望有一定的研发背景,但不要求很高。比如内部有提效工具,做个小机器人应答之类的这种也是ok,做不了也没关系。 管理经验不是那么多,能处理单一项目的管理也可以,但希望还是有数仓项目经验,因为传统行业的话,无法快速适应和接洽 不用实际‌Coding,但要理解代码可以作各外部团队的协调和沟通 重点是软技能要达标,跨团队协作能力达标 工作预期的话,可能后续要根据团队内部的事情,补很多文档or规范,可能要文档类的归纳汇总能力 灵活度,理解能力以及反应迅速最好,软素质的要求会更高一些~" 岗位2 大数据实时工程师 要求实时经验占比70%左右 岗位职责 1、负责数据仓库脚本任务及数据的迁移工作,确保最终数据完整性和一致性。 2、使用 Hive SQL进行数据查询操作,基于 Hadoop 大数据组件完成数据脚本部署、验证。编写和维护数据搬迁相关的操作文档。 3、与业务团队和开发团队协作,确保数据搬迁项目按时交付。 1、数据仓库技术:熟悉数据仓库的设计、建模和优化,熟悉 ETL 流程。 2、大数据组件:熟悉Hadoop生态系统(如HDFS、YARN),了解 Spark,HBase、Kafka、Flink、ES、Clickhouse等大数据组件的使用。 3、编程语言:精通 Hive SQL,能够编写复杂的查询语句:有一定 Python、Java或 Scala 等编程语言的基础。 岗位要求: 1、3-5年大数据相关工作经验,具备数据仓库、数据开发能力。 2、有大型数据仓库迁移项目经验者优先。 T2 至少3年以上经验(不算实习),T3-5年经验,正辉筛选简历更倾向于人选同时具备:1、熟悉实时(fink)和商线(spark)经验,(后期招聘全部偏向于离线);2、云平台使用经验(阿里云、腾讯云、百度云等)-如人选非常优秀也不是非常必要条件:3.精通SOL代码(B面必考察)4、沟通逻辑件好:5.传统数仓经验偏多人选不合适(除有加分技能,如:精通]ava和python)-比如钟振凯(精通Spark-python) 岗位3 大数据运维工程师 "岗位职责: 1、负责数据同步任务全生命周期的统一运维,涵盖任务创建、执行监控、问题解决及资源调优等核心环节 2、基于实际运维经验提炼通用规范,逐步降低运维成本 技能要求: 1、熟悉 Spark job 常见运维手段,具备 Spark 日志(如 Spark UI、Log 等)分析能力 2、具备 Python/Shell 编写能力,可以自主开发小型脚本辅助提高工作效率"
2026-03-01 09:01
IP属地:上海

职位福利

本科及以上3-5年PythonJavaFlinkSpark数据中台开发数据库开发数据仓库
企业发布信息图
上海微创软件股份有限公司
· 6人以上
鱼泡安全保障
如遇到办证收费、刷单、传销、诱导买车等违规行为,请立即向鱼泡直聘投诉举报投诉举报 >
下载鱼泡直聘APP

附近适合您的职位

数据库工程师DatabaseEngineer
1.5-2.5万元/月
数据开发1-3年本科及以上要求数据开发经验其他数据开发经验非外包类其他计算机相关专业数据库
上海 闵行区
高级大数据工程师
3-3.5万元/月
数据开发3-5年学历不限Java要求数据开发经验Elasticsearch原理/源码大数据引擎开发经验数据建模经验MySQL/SQL ServerKafka非外包类计算机相关专业数据平台开发经验HBase
上海 闵行区
数据管理工程师
1-1.5万元/月
数据开发3-5年本科及以上接受无数据开发经验
上海 闵行区
大数据开发工程师-外派游戏名企(含工作餐)
2.1-2.8万元/月
数据开发3-5年本科及以上Java要求数据开发经验Elasticsearch敏捷开发方法ScalaMySQL/SQL ServerClickhouse计算机相关专业数据平台开发经验PythonSQL数学/
上海 闵行区
数据库工程师 Database Engineer
1.5-2.5万元/月
数据开发1-3年本科及以上要求数据开发经验其他数据开发经验非外包类其他计算机相关专业数据库
上海 闵行区
数据开发
2-4万元/月
数据开发3-5年本科及以上要求数据开发经验Presto原理/源码Spark原理/源码大数据引擎开发经验BI报表开发经验非外包类数据治理经验PythonSQL
上海 闵行区
大数据开发工程师
1.1-2万元/月
数据开发3-5年本科及以上数据架构JavaHadoopFlinkSpark车联网
上海 嘉定区
大数据研发工程师
1.8-2.1万元/月
数据开发3-5年本科及以上SqlJavaPythonHadoopFlinkSpark
上海 杨浦区
数据开发
1.4-1.6万元/月
数据开发3-5年本科及以上ETL
上海 黄浦区