
大数据开发工程师-平安科技
1.3-1.5万元/月
数据开发3-5年本科及以上Hive要求数据开发经验ETL开发经验Spark数据平台开发经验SQLPython
岗位职责:
1、协助梳理业务逻辑框架,参与数据体系的规划与搭建,基于数据开展业务洞察与分析。
2、参与数据仓库及BI项目的需求调研、跨部门沟通与数据分析工作,输出需求文档、数据调研材料及分析报告;
3、协助设计数据仓库模型架构、ETL流程及字段映射规则,参与数据仓库、BI系统与业务系统间接口方案的设计与确认;
4、协助完成多维度数据的提取与分析,具备一定数据建模实践经验者优先;
5、协助分析模块的数据模型构建与可视化呈现设计
任职资格:
1.本科及以上学历,统计学、数学、计算机等相关专业背景;
2.熟练掌握至少一种主流关系型数据库,精通SQL/Hive/Spark编程,了解shell、python等脚本语言;
3.具备扎实的数据分析能力与学习能力,沟通顺畅,逻辑思维严密;
4.具有良好的团队合作意识,责任心强,乐于学习,能够独立分析并解决实际应用问题
大数据开发工程师
1-1.5万元/月
数据开发3-5年本科及以上JavaDoris原理/源码要求数据开发经验Doris/DruidElasticsearch原理/源码ScalaSpark原理/源码大数据引擎开发经验Flink原理/源码Kafka
任职资格:
1.计算机或大数据相关专业,本科及以上学历,具备3年以上实际开发工作经验;
2.熟悉MySQL、Hadoop、MongoDB、Redis、Kafka、HBase、Spark、ES等主流数据库技术,具备较强的SQL编写与性能优化能力;
3.掌握Flink、Kafka、Hive、Spark、Doris、DataX等大数据生态组件的实际应用;
4.具备Hadoop集群的部署与运维能力;
5.深入理解Hive运行机制,并掌握常见调优策略;
6.精通SQL、Java、Shell等常用编程语言;
7.熟悉DolphinScheduler、阿里云DataWorks、XXL-JOB等任务调度工具的使用与配置;
8.具备分布式系统设计或大规模数据处理经验者优先考虑;
9.对互联网技术有浓厚兴趣,具备规范的编码风格和良好的技术文档编写习惯;
10.具备良好的沟通表达能力,逻辑清晰,勤于思考,能够独立完成问题分析与解决;
11.责任心强,具备团队协作意识,抗压能力强,心态积极乐观,能快速融入团队工作氛围。
大数据
1.4-1.8万元/月
数据开发3-5年本科及以上JavaHive要求数据开发经验数据平台开发经验金融行业经验
岗位职责:
1、参与业务逻辑模型的梳理工作,协助搭建和维护数据体系,并基于数据开展业务分析支持;
2、参与数据仓库与BI项目的需求调研、跨部门业务沟通及数据分析任务,负责编制需求文档、数据调研材料及分析成果报告;
3、协助设计数据仓库的模型架构、ETL流程及字段映射规则,参与数据仓库、BI系统与各业务系统间接口方案的设计与确认;
4、配合完成多维度的数据提取与分析工作,具备一定的数据建模实践经验者优先;
5、参与基金、保险、证券、信托、银行等领域数据仓库架构规划,承担ETL开发、性能调优及日常运维相关工作;
6、参与数据治理工作,持续优化数据使用体验与数据质量水平;
任职资格:
1、掌握数据仓库核心技术,包括ETL处理、报表开发,具有4年以上相关经验,熟悉数据库原理与数据建模方法,具备实际项目经历及性能优化经验;
2、编程与SQL能力扎实,了解Hadoop生态常见组件及其基本工作机制,能够应对数据倾斜等典型分布式计算问题;
3、对数据具有敏锐洞察力,工作认真细致,擅长通过数据分析识别潜在问题;
4、具备优秀的数据解读能力和快速学习能力;
5、沟通表达良好,逻辑思维清晰严谨;
数据开发
5000-10000元/月
数据开发1-3年本科及以上Presto要求数据开发经验ETL开发经验BI报表开发经验电商/零售行业经验MySQL/SQL Server非外包类数据仓库开发经验Python
岗位职责
1、负责数据库的设计、开发及性能优化工作;
2、参与BI报表工具相关数据模型的分析与设计;
3、根据项目需求承担其他相关的开发任务。
工作要求
1、本科及以上学历,计算机相关专业,2年以内工作经验或优秀应届毕业生;
2、通过大学英语四级或六级者优先考虑;
3、掌握数据库基础理论,熟悉数据仓库的基本架构、理念及相关概念;
4、至少熟练使用Oracle、SQLServer、DB2等主流数据库中的一种,并能编写和运用基本SQL语句;
5、了解云计算服务,持有云平台(AWS、阿里云、微软云)相关认证者优先;
6、具备良好的学习能力与适应能力,拥有出色的沟通技巧及规范的编码习惯;
7、本岗位工作地为无锡,仅接受计划长期在无锡发展的候选人投递
大数据开发工程师(驻场银行)
1.4-1.5万元/月
Hadoop数据开发5-10年本科及以上
岗位职责:
1.参与项目上对客查询(OLAP)场景下的表设计、业务设计
2.参与大数据平台的架构设计和优化,确保数据处理的高效性和可靠性。
3.参与大数据平台的数仓建设和数仓开发工作,具有数仓开发与调优的工作经验优先
4.负责大数据平台运营的工作,学握大数据监控、调优的工作。
5.设计和实施大规模数据处理、存储和分析工作。优化数据处理流程,提升数据处理效率。
6.参与大数据项目需求分析、技术方案设计和开发计划制定,跟进项目进堂,确保按时交付高质量完成。
任职要求:
1.计算机科学、数据科学、软件工程或相关专业本科及以上学历。
2.5年以上大数据开发和数仓开发经验,有大规模数据处理项目的实际经验和大数据开发经验者优先
3.熟悉Hadoop、Spark等大数据处理框架
4.有SQL和NoSQL、新SQL数据库(如doris、clikhouse等)的实际使用经验。
4.熟悉大数据平台的性能调优和优化方法良好的沟通能力和团队协作能力,能够与团队成员和其他部门有效合作。
5.具备良好的学习能力和技术敏感性,能够快速学掘和应用新技术。
数据开发
1.2-1.5万元/月
数据开发5-10年本科及以上Hive要求数据开发经验BI报表开发经验Spark数据平台开发经验FlinkPythonSQL
岗位职责
1、配合集团财务系统数据中台的建设工作,承担报表类需求的开发任务
2、参与业务需求的梳理与分析,协同完成系统方案的设计支持
3、承担部分代码开发工作,保障系统的性能、质量及安全性
4、参与生产系统的日常运维,保障服务稳定运行
岗位要求:
1、本科及以上学历,计算机相关专业,具备4年以上数据开发实际经验
2、掌握ORACLE、MYSQL、PostgreSQL、YellowBrick等关系型数据库其中一种,熟悉PostgreSQL、Doris、YellowBrick者优先
3、了解主流大数据技术栈,如hadoop、hive、spark、flink等
4、SQL能力扎实,具备丰富的查询性能优化实践经验
5、熟练使用python、perl、PL/SQL、sh等脚本语言,具备较强的ETL流程规划与实现能力
6、熟悉LINUX操作系统,掌握常用shell工具的使用
7、逻辑清晰,工作认真负责,具备良好的团队协作意识
8、有数据仓库或数据中台项目开发与设计经验者优先考虑
9、具备finereport与finebi报表开发应用经验者优先录用
数据开发
1-1.1万元/月
数据开发经验不限本科及以上接受无数据开发经验
工作周期:长期兼职
每周工期:无限制
工作时间:灵活安排
工作时段:自由选择
结算方式:按项目完成结算
招聘截止时间:2026-12-31
任职要求:
1.熟练掌握SQL技能,能胜任复杂场景下的数据处理与分析任务;
2.了解主流大数据技术框架,如Hadoop、Spark等,具备高效数据处理能力;
3.具备规范的编程习惯,可编写结构清晰、运行高效且易于维护的代码;
4.拥有较强的逻辑分析与问题应对能力,能够独立承担项目开发职责。
大数据开发工程师-平安科技
1.3-1.5万元/月
数据开发3-5年本科及以上Hive要求数据开发经验ETL开发经验Spark数据平台开发经验SQLPython
岗位职责:
1、协助整理业务逻辑框架,参与数据体系的规划与搭建,基于数据开展业务洞察与分析。
2、参与数据仓库及BI项目的需求调研、业务对接与数据分析工作,撰写需求文档、数据调研材料及分析报告;
3、协助设计数据仓库模型、ETL流程及字段映射逻辑,参与数据仓库、BI系统与业务系统间接口方案的设计与确认;
4、协助完成多维度数据的提取与分析,具备一定建模实践经验者优先;
5、协助应用分析模块的数据模型设计与可视化呈现方案制定。
任职资格:
1.本科及以上学历,统计、数学、计算机等相关专业背景;
2.熟练掌握至少一种主流关系型数据库,精通SQL/Hive/Spark编程,了解shell、python等脚本语言;
3.具备扎实的数据分析能力与学习意识,沟通顺畅,逻辑思维严密;
4.具有良好的团队合作态度,责任心强,乐于学习,能够有效分析和应对实际应用问题
大数据开发工程师(长期岗位)
1-1.3万元/月
数据开发3-5年大专及以上JavaHive要求数据开发经验ETL开发经验k8sKafka非外包类Spark数据平台开发经验docker
岗位职责:
1.参与项目的需求分析与系统设计,依据业务需求完成相关技术文档的撰写。
2.承担项目中数据接入、存储架构、数据分析及应用实现等后端开发任务。
3.协同项目前后环节,开展接口的设计与开发,配合团队成员共同推进项目落地。
4.按照团队规范,及时完成技术预研、文档整理、编码开发、测试支持及运维保障等工作。
岗位要求:
1.精通Java语言,具备扎实的编程基础和良好的代码习惯。
2.掌握大数据技术体系,熟悉Hadoop、Hive、Zookeeper等生态组件,具有Flink、Kafka等主流框架的实际开发经历。
3.熟练运用SQL,具备实际的查询性能优化经验。
4.熟悉Linux操作系统,可根据实际需要编写Shell脚本完成自动化任务。
5.熟悉主流数据库技术,如Mysql、Postgres、Clickhouse、Redis、Mongo、Doris、ElastiSearch、NEO4J等。
6.掌握Restful接口设计规范,熟悉SpringCloud微服务架构下的后端开发。
7.了解Docker容器化技术,熟悉Kubernetes集群的部署与日常维护操作。
8.本科及以上学历,计算机或相关专业背景,具备两年以上后端数据开发工作经验。
焊工,二保焊工
1.1-1.3万元/月
二保焊工厂焊工包住包吃20人以上月结技术好
苏州常熟招焊工20人,主要生产储能柜,工资待遇,管吃管住,管3餐,住宿4人公寓,水电平摊,每小时35到40元,每天工作10小时,月收入11000左右,批量计件,工资500以上,技术好的工资可以调整,有想法的兄弟速度,工资准时,不拖不欠,可预支,可预支,
徐州急招搬运工320一天,长白班包吃包住,面试包通过
8000-9000元/月
工厂搬运工包住加班补贴包吃20人以上月结
厂里老板招工320一天,要几个能长期干的小工,包吃住,面试包过可日结,可安排夫妻房,有意向的话可以来电咨询,目前要人不多,只要50个人,招满我们就停招了
工作岗位包括:普工、操作工、包装工、组装工、质检员、搬运工、贴标签、物料、岗位多,选择性大。所有岗位均无须经验、简单易操作、坐着上班、无任何辐射、不穿无尘服。
【1】入职要求:
1、男女不限,不限学历
2、符合年龄16-55周岁以身份证上的年龄为准,体检以厂区为准。
【2】包吃包住:
1、公司提供免费住宿,标准1-6人间(独立卫生间、空调、洗衣机、WIFI等)。
2、入职当天即可在我们厂里吃饭,工厂提供饭卡的,不用自己充钱吃饭,全部免费
3,厂区生活区设施有:网吧、篮球场,足球场,医务室、餐厅、超市、各种商业小吃、休闲娱乐等设施..节假日都举行大型活动,工作地址在芜湖
专跑高速江浙沪商务小长途/非网约车/日结自带车
1-1.3万元/月
商务车司机保险高温补贴餐补6-10人日结全职兼职C1照
主要接送江浙沪出差、旅游的乘客,公司不租车,不卖车。需要自己带车,家用5座、7座小车均可。工资可以日结,无需公司打卡,家就近出车。要求:62周岁以内,无刑事案底。有意者来电详询
数据开发北京
1.4-1.5万元/月
数据开发3-5年本科及以上Hive要求数据开发经验MySQL/SQL ServerSpark数据仓库开发经验Oracle数据治理经验SQL
1.计算机科学、信息技术、统计学等相关专业本科及以上学历。
2.具备3年以上企业级数据仓库开发经验,熟悉数据仓库体系架构,能够梳理复杂业务逻辑,有Hive、Doris、Oracle等数据仓库使用经验者优先。
3.熟悉数据建模方法及ETL流程设计,掌握数据仓库架构设计与性能调优技术。
4.精通SQL编写与数据库运维管理,拥有在大规模数据库环境中实际操作的项目经验。
1.负责公司数据仓库与数据集市的设计、开发与日常维护,保障数据准确性与更新时效。
2.参与数据模型设计工作,持续优化数据存储结构,提高数据检索效率。
3.对接业务部门,深入理解需求,提供针对性的数据支持与解决方案。
4.承担ETL流程的开发与性能优化任务,保障数据链路稳定且具备良好可扩展性。
5.持续监控数据平台运行状态,快速定位并解决系统异常与性能问题。
6.参与数据治理体系搭建,推动数据质量提升与合规性管理。
7.关注数据仓库领域前沿技术动态,开展技术评估与落地应用,增强平台整体能力。
数据开发
9000-14000元/月
数据开发经验不限本科及以上SparkPython
一、核心职责
1.数据仓库与数据模型建设:
1.1负责基于阿里云MaxCompute构建、维护和优化企业级数据仓库/数据湖。
1.2参与数据模型的设计与开发,包括维度建模、数据分层(ODS、DWD、DWS、ADS),并保证模型的规范性和可复用性。
2.数据处理与开发:
2.1使用DataWorks进行数据采集、同步、清洗、转换和加载(ETL/ELT)任务的开发与调度。
2.2编写高效、规范的SQL和PySpark/MaxComputeSQL脚本,处理海量数据。
2.3负责数据血缘、数据质量监控体系的搭建与维护。
3.查询引擎应用:
3.1利用Hologres进行实时/交互式数据查询服务的开发,支撑高并发、低延迟的BI报表和用户画像等应用场景。
3.2理解并优化Hologres表的设计(如行列共存、分区键、索引等),以提升查询性能。
4.数据服务API开发与设计(新增/强化):
4.1设计、开发并维护高性能、可扩展的数据服务API,将数据仓库和数据模型中的核心数据能力服务化。
4.2与数据产品团队紧密协作,理解快消行业(如销售分析、渠道管理、消费者洞察等)的业务逻辑,并将其落地为数据产品与API服务。
4.3将加工后的数据通过数据API、数据报表等方式,提供给下游数据产品和使用方。
二、任职要求(硬技能)
•必备经验:
1、3年以上大数据开发经验,至少1年以上基于阿里云大数据体系(MaxCompute,DataWorks,Hologres)的实战项目经验。
2、精通SQL,具备强大的SQL性能调优能力,熟悉MaxComputeSQL者优先。
3、熟练使用DataWorks进行数据集成、任务开发、工作流调度和运维监控。
4、有Hologres或其他OLAP数据库(如ClickHouse,Druid)的实际开发和使用经验,理解其核心原理。
•技术栈:
1、熟悉一种以上编程语言,如Python、Java或Scala,并能在数据开发中应用(如UDF开发、Spark任务等)。
2、具备数据API开发经验,熟悉至少一种常用的Web框架(如SpringBoot,Django,Flask等)和RESTfulAPI设计规范。
3、了解数据仓库理论,熟悉Kimball或Inmon的建模方法论。
•加分项:
1、有快消、零售、电商行业背景,熟悉相关业务数据模型(如商品、订单、会员、门店等)。
2、有阿里云其他相关产品经验,如Flink、QuickBI、DataV等。
3、具备数据治理经验,了解数据安全、数据标准、数据质量等领域的实践。
数据开发工程师
1-1.5万元/月
数据开发经验不限本科及以上要求数据开发经验数据仓库ETL开发经验数据建模经验Hadoop分布式技术非外包类实时数仓开发经验计算机相关专业数据平台开发经验SQLHive数据分析Elasticsearch
1.承担业务需求相关的数据开发工作;
2.参与企业数据处理逻辑的构建与性能提升;
3.参与公司各类数据模型的架构设计及持续优化;
4.建立数据治理、数据质量管控及元数据管理等标准化体系;
5.负责公司大数据基础平台的整体规划与技术架构设计。
6.具备实时数仓建设经验或熟悉Kylin工具者优先考虑。
大数据开发工程师
5000-8000元/月
数据开发1-3年本科及以上Java要求数据开发经验Kafka原理/源码ETL开发经验大数据引擎开发经验Flink原理/源码数据建模经验KafkaMySQL/SQL Server实时数仓开发经验非外包类数据
【职位描述】
1、参与业务需求对接,制定数据建模与系统实施技术方案;
2、承担数据仓库的开发与日常维护工作,依据数据模型构建并持续优化数据仓库架构,实现多源系统的数据集成与统一管理;
3、负责BI平台报表的设计、开发与运维支持,完成报表功能实现与性能调优,保障系统运行稳定、响应高效、界面操作流畅。
【任职要求】
1、熟悉MsSql/Oracle/MySQL等关系型数据库,具备扎实的数据库开发与管理能力;
2、熟练运用常用数据分析工具,如Excel、Python等;
3、掌握主流ETL工具的应用,如Informatica、ODI或Kettle等;
4、具备JavaScript等脚本语言的基础认知;
5、本科及以上学历。
大数据开发
1.2-1.6万元/月
数据开发3-5年本科及以上要求数据开发经验实时数仓开发经验Sparkhadoop数据平台开发经验FlinkSQLPython
物流系统项目-大数据开发1人(佛山美的项目)
技能要求:
1、掌握Hadoop、HBase等分布式计算平台的开发与应用,具备3年以上Hadoop实际使用经验,有大数据应用系统开发背景
2、熟练运用Kettle等ETL工具进行数据抽取与转换;具备一定的数据模型设计和数据架构理解能力,熟悉Hadoop、Hive及常用数据库技术
3、精通SQL/HQL语言,具备良好的SQL性能优化能力,有丰富的HiveSQL开发经验
4、熟悉ETL流程的设计、任务调度、运行监控及相关算法,能独立完成事实表与维度表的构建与开发
5、具备分布式系统开发经历,曾使用HBase完成2个及以上项目开发,或参与过HBase高并发场景系统支持者优先
临时工
招聘会
①时间:(周五/下午)
地点:市中心苏宁广场室内
规模:50家
位置有限,先报先排,
报名咨询 ☎
临时工有提成免费培训包住包吃月结
招聘启事
地点:开发区钵池街道东湖社区院内
岗位:康养中心工作人员
要求1:初中及以上文化,会简单的电脑,手机操作。
2:良好的服务意识,勤奋工作态度。
3.善于沟通,有亲和力。年龄35—55岁左右。
4文采好的,手机操作熟练,热爱养老服务,优先。
长白班,基本工资2800,详情面谈 月休4天。其它福利待遇面议。
联系人谷先生:
临时工
活动协助人员
男女不限,年龄18 - 35岁,连做优先。负责签到及送材料等简单协助工作,无重活
薪资福利:12.19 - 12.21,10 - 22点,工资150
工作地址:无锡方圆荟
数据治理技术专员
1-1.5万元/月
数据治理3-5年本科及以上
职位描述
1.负责数据清洗、开发与加工相关工作;
2.参与公司数据仓库、数据平台、数据产品及相关项目的需求分析、方案规划、架构设计与系统开发;
3.承担数据治理中涉及的数据质量管控任务,并完成相关知识的整理与沉淀;
4.负责线上数据系统的运维与管理,具备问题定位与分析能力,持续优化系统架构,提升服务的稳定性、性能表现及可扩展性;
5.按时独立完成分配任务,确保交付成果质量,保障代码逻辑正确、运行稳健,推动项目进度与数据质量双达标;
6.主动学习和探索前沿技术,以支持项目发展、系统优化,并协同解决开发过程中的关键技术难题;
任职资格:
1.计算机相关专业本科及以上学历,具备3年以上实际开发工作经验;
2.精通Java语言,掌握多线程编程技术,熟悉主流Java网络库及技术架构,如Springboot、Springcloud、docker等,能熟练运用Java框架进行Web应用开发,对SpringMVC、SpringBoot、MyBatis等具备从零搭建和开发的能力;
3.熟悉Spring、SpringBoot等常用Java开发框架;
4.掌握Elasticsearch、Mysql、Redis和MongoDB等数据库技术,具备较强的SQL编写与性能调优能力;
5.熟悉Git、Maven等开发协作与构建工具;
6.了解Flink、Kafka、Hive、Spark等大数据生态组件的应用;
7.熟悉Scrum流程以及持续集成与持续交付的相关理念;
8.具备分布式系统开发经验或大数据处理、数据治理实践经验者优先考虑;
9.热爱互联网技术,具备良好的编码规范和文档撰写习惯;
10.具备良好沟通能力,思维条理清晰,善于思考,能够独立开展问题分析与解决;
11.责任心强,具备团队协作意识,抗压能力强,心态积极,能够快速融入团队工作氛围。
数据采集带车司机260日结
70-75元/时
数据采集经验不限学历不限
工作周期:6个月
每周工期:无要求
工作时间:早班、午班、晚班
工作时段:不限
结算方式:日结
招聘截止时间:2025-10-16
职位详情
工作内容:
1.按照标准执行“带车数据采集”任务,操作简单,流程正规,安全可靠!
2.体验结束后提供简要反馈,分享使用感受,评价内容真实即可。
要求:
1.需自备18年以后的车辆,且持有本地车牌。
2.无任何违法违纪记录。
每日结算薪资!
名额有限,感兴趣者请尽快联系我们咨询详情!
临时工月结
招聘:助理
薪资:面议
熟练运用office,并且一定要细心和耐心,需要画一些简单的图,这些我都可以教你
临时工包吃3-5人
明天招临时工2到3名,45岁以下,110块钱一天,八点到五点半,管吃自带碗筷,联系电话地址:恒大林溪郡13栋二单元
数据库开发
1-1.5万元/月
数据开发3-5年本科及以上监管报送银行
任职资格
1.本科及以上学历;
2.精通SQL语言,具备编写SQL语句、存储过程、触发器的能力,熟练操作Oracle、GP数据库;
3.具备良好的沟通表达与逻辑思维能力者优先考虑;
4.工作积极主动,具有较强的学习意愿和自我驱动力;
5.拥有银行行业背景,或参与过数据仓库、数据集市类项目者优先。
岗位要求
1.可独立承担推荐系统中各类推荐业务需求的实现;
2.参与推荐系统的开发工作,负责系统架构设计及核心代码编写;
3.参与产品方案研讨与技术调研,提供可行的技术解决方案,并承担相关技术文档的撰写与维护。
栏目概述
鱼泡直聘为工人提供数据处理工程师招聘在线招聘信息,主要招聘江苏数据开发相关人才。作为数据开发工人,如果您具备一定的工作经验,并且能够熟练掌握相关的岗位技能和了解数据开发的工作职责。那么您将是我们需要的人才,平台上有更多的工作机会适合您。