
数据开发工程师
1.2-1.7万元/月
数据开发3-5年本科及以上JavaPythonKettle
岗位职责:
1、承担底层数据的抽取、转换与加载(ETL)开发任务。
2、参与大数据平台的架构设计、数据建模、编码实现及测试工作。
3、依据业务需求开展数据模型的调研、设计、开发与验证,并持续推进模型迭代优化。
4、主导数据平台整体架构与核心模块的开发,独立攻克开发过程中的关键技术难题。
5、完成日常数据提取与分析支持工作,保障数据服务稳定运行。
技能要求:
1、本科及以上学历,计算机技术、电子工程、通信工程、统计等相关专业,具备三年以上数据开发工作经验;
2、精通SQL,熟练使用JAVA/GO/Python中至少一种编程语言,具备良好的代码规范意识;
3、熟悉Mysql等关系型数据库及Redis等NoSQL数据库,了解其底层原理与性能调优方法;
4、熟练掌握HDFS、Hbase、Kafka、ElasticSearch、Solr等相关大数据技术组件;
5、能够熟练运用git和docker工具,具备标准化的版本控制开发经验;
6、具备良好的沟通能力与团队合作意识,积极主动,责任心强;
7、有数据仓库建设或数据治理实践经验者优先考虑。
数据分析师/助理
4000-6000元/月
数据分析师5-10年本科及以上SQL
岗位职责:
1.深入理解公司产品线业务,依据实际业务需求完成数据预处理工作,整合多源数据,按照统一标准规范进行清洗、转换与特征提取;
2.基于公司产品为业务团队提供周期性数据支持,独立输出数据分析报表或报告,针对异常数据及时发起预警,并开展问题追踪、定位与成因分析;
3.针对不同产品开展专项用户调研,具备独立完成调研数据分析并形成专业报告的能力;
4.承担相关产品线的数据管理任务,包括数据入库、归档及留存等日常维护工作。
岗位要求:
1.本科及以上学历,数据、统计等相关专业背景,具备扎实的数据处理技能;
2.具备一年以上数据类项目实践经验,有快消行业数据分析经历或文本数据处理经验者,学历条件可适当放宽;
3.工作认真负责,态度积极,愿意在数据驱动决策领域长期发展;具备良好的执行能力、逻辑思维,责任心强,善于团队协作。
-----------------------------------------
1、入职配备系统化专业培训
2、团队氛围融洽,日常充满小惊喜
3、提供清晰的晋升发展空间
电商数据专员
5000-7000元/月
数据分析师1-3年大专及以上物流行业数据相关经验
1.负责电商仓储环节的数据采集与核查,保障数据真实准确;
2.承担工单全流程管理,包括生成、跟踪、闭环、复核及归档,确保各环节无误;
3.对现场不良品及废弃物进行数量监管,并完成相应报表编制;
4.按要求输出各类关联性数据报表;
5.参与库存盘点相关事务执行;
任职要求:
1.具备统招大专或以上学历;
2.精通EXCEL操作,掌握ERP/WMS系统使用,具备适应变动的能力及主动学习意识;
牧场数据管理员
4000-5000元/月
数据分析师1-3年大专及以上畜牧兽医类专业,奶牛养殖场工作1年以上数学/统计相关专业
根据各部门数据变化情况,开展牛群健康状态分析,并编制相应报告。
依据运营部门每日工作计划,下发任务清单并回收相关数据。
协助部门经理完成牛群活动轨迹等数据的采集、整理与分析,提交决策参考信息。
每日对牧场实施的项目化方案执行情况进行核查,推动员工落实改进措施。
参与各部门SOP的制定工作,并进行日常监督与检查,发布相关通报。
完成部门负责人交办的临时性工作任务。
兼职
招聘兼职,男女不限,55周岁以下
工作简单轻松自由,每天3小时
工资考核赚200元,接受小白,
每天下午4:30到晚上8:00,
适合宝妈自由职业者,
或者想干副业
有想创业的可以晋升合伙人,
方便电话联系
充电站兼职服务人员,薪资日结
200-300元/天
兼职日结
兼职城市:太原/临沂
薪资:230/天
工作时长:8小时;
要求:性格外向些,年龄40岁以下,性别不限,学生兼职或者社会工兼职都可以;
工作区域:
太原:杏花岭区/万柏林区/小店区/尖草坪区/晋源区;
临沂:兰山区;
工作内容:担任充电站服务人员,给充电的司机用户介绍公司充电平台;;
辅助工具:工作服/工作牌;
需求日期:1.23-1.28;
薪资发放:完工结
聊城东昌府区普通话流利,沟通能力强形象良好,有责任心,有推广能力学历不限,经验不限《薪资福
3000-8000元/月
临时工有提成免费培训20人以上月结全职全职,兼职,暑假工
普通话流利,沟通能力强
形象良好,有责任心,有推广能力
学历不限,经验不限
《薪资福利》
薪资范围:5000-1300元
数据开发工程师
2-3万元/月
Hadoop数据开发5-10年硕士及以上
工作职责
1、基于业务数据,参与数据仓库模型建设、数据标准制定、数据质量治理等相关工作
2、参与数据治理相关专题分析及治理,沉淀数据治理规范性文档等。
3、负责日常ETL开发,任务运维及故障定位修复等。
4、深入理解业务,挖掘数据价值,对业务进行合理的抽象和建模,构建准确、稳定、高效的数据体系。
任职要求
1、掌握Kimball维度模型设计,参与过数仓层级划分,主题域设计,模型设计等,具备金融数仓、财务数仓建设经验优先。
2、具备海量数据加工处理相关经验,3年以上企业级数据仓库开发相关工作经验,有央企上报监管等经验优先。
3、熟练掌握ETL开发并有任务调优经验,熟悉Hadoop生态,熟练使用hivesql或者sparksql,有python经验优先。
4、对数据敏感,具有良好的逻辑分析、责任心强、良好的对外沟通和团队协作能力
高级大数据工程师【央企平台+六险三金】
1.8-3.5万元/月
数据开发5-10年本科及以上Java要求数据开发经验Kafka实时数仓开发经验非外包类计算机相关专业Flink数据治理经验HBaseC/C++HiveSpark数据仓库开发经验Python数学/统计相
主要岗位职责:
一、协同产品规划,优化数据产品的功能设计、服务体系及业务流程;
二、承担数据仓库的架构规划、方案设计、开发实施,以及各业务线数据的采集、清洗、整合、调度与性能调优;
三、参与企业内部数据治理工作,涵盖元数据管理、数据质量监控、权限控制及数据开发规范的制定与执行;
四、主导内部数据应用系统与工具平台的设计、编码开发及日常维护;
五、处理大数据集群及线上数据服务中的技术难题,确保系统安全、稳定、高效运行;
六、跟踪大数据领域前沿技术发展,规划大数据平台类产品的整体架构,推动能力服务化输出,支撑数据产品的研发与落地。
岗位要求:
1、计算机、软件、网络、通信等相关专业背景,具备7年以上大数据或后端开发领域工作经验;
2、掌握计算机体系结构,熟悉常用数据结构与算法,具备扎实的Java/C++编程基础;
3、在大数据研发方向,熟悉Hadoop生态体系,掌握数据库相关原理;熟练使用或有Flink/Spark/HBase/Hive/Presto/Impala等开源组件开发经验者优先,有开源项目贡献经历者优先;
4、在数据库研发方向,具备较强的数据库内核开发与性能调优能力,了解主流数据库系统如MySQL、PostgreSQL、Redis、MongoDB,具有至少一种数据库的调试实践经验者优先;
5、具备良好的沟通协作能力,能够独立推进项目任务执行;
6、对行业变化、技术演进及业务特点保持敏感,能深入理解用户需求并转化为技术方案,具备可落地的产品设计能力,有大数据产品设计或技术产品经理经验者优先;
7、具备隐私计算平台架构设计与开发经验者优先,有AI大模型实际应用落地经验者优先。
大数据平台开发工程师
2-3万元/月
数据开发3-5年本科及以上外包类要求数据开发经验数据平台开发经验Python
职位要求
(一)学历与经验
-学历要求:计算机相关专业本科及以上学历;
-经验要求:具备1年以上数据工程或后端开发相关工作经验,有数据链路搭建、工程化落地经验者优先。
(二)技能要求
-编程语言:熟练掌握Python、Java、Go中的至少一门编程语言,拥有良好的编程习惯与代码规范意识,能独立完成工程化代码开发;
-数据库能力:熟练使用SQL语言,具备关系型数据库(MySQL)、缓存数据库(Redis)的操作与性能优化经验,了解数据存储选型逻辑;
-框架与协议:了解SpringBoot、Django、Gin等后端开发框架,熟悉HTTP、TCP/IP等网络协议,能基于框架快速开发数据相关服务。
-工程化认知:对数据仓库建模、ETL/ELT工程化流程有基本理解,了解数据工程中数据质量保障、容错处理的常用方法。
(三)加分项
-具备数据工程平台开发、大数据组件二次开发经验;
-参与过大模型训练数据工程、知识图谱数据架构相关项目。
(四)软技能
-沟通协作:具备良好的沟通能力与团队协作精神,能清晰同步数据工程进展与问题,配合核心团队推进落地;
高级大数据开发工程师
1.8-3.5万元/月
数据开发5-10年本科及以上JavaHive要求数据开发经验ScalaKafka非外包类计算机相关专业Spark数据平台开发经验FlinkPythonHBase
主要岗位职责:
一、协同产品规划,优化数据产品功能、服务及业务流程;
二、承担数据仓库的规划、设计、开发工作,完成各业务线数据的采集、清洗、整合、调度与性能优化;
三、参与企业内部数据治理体系搭建,涵盖元数据管理、数据质量监控、权限管控及数据开发规范制定;
四、主导内部数据应用与工具的产品化设计、开发及日常维护;
五、处理大数据集群与线上数据服务中的各类技术问题,确保系统安全、高效、稳定运行;
六、跟踪大数据领域前沿技术,规划大数据平台类产品的整体架构,推动数据能力的服务化输出,支撑数据产品的研发与落地。
任职资格要求:
一、专业要求:计算机、通信、信息系统、数学等相关专业背景。
二、专业技能
1.掌握Java、Scala、Python中至少一种编程语言;
2.熟悉Hadoop生态组件的工程化开发,精通Hadoop、Spark、Hive、HBase、Flink、Kafka、ElasticSearch等主流大数据技术栈,具备Java与Scala项目实战经验,熟悉Python者优先考虑;
3.对大规模数据场景下的数仓建设(包括离线和实时架构)在模型设计、服务构建、治理机制等方面有深入理解,拥有大型数仓或数据中台实施经验;
4.熟练运用Mysql、Redis、Hive、Hbase等数据库的性能调优方法;
5.具备较强的学习能力、沟通协调能力及团队协作意识。
加分项:
1、具备PB级别数据治理实践经验;
2、参与过个性化推荐引擎开发,熟悉sparkmllib相关技术;
三、工作经验
8年以上相关领域工作经验,统招全日制本科及以上学历。
大数据开发工程师(26届校园招聘)
1-1.5万元/月
数据开发经验不限硕士及以上Java要求数据开发经验ScalaETL开发经验数据建模经验Kafka实时数仓开发经验非外包类数据平台开发经验Flink数据治理经验C/C++其他数据开发经验BI报表开发经验
一、工作职责:
1、基于Flink、Hudi、Paimon等技术构建中国联通BOM域的大规模实时湖仓体系。
2、开展海量实时数据的处理、分析、统计与深度挖掘工作,依托Flink实现高效计算。
3、推进面向AI应用的大数据集构建与优化。
4、主导公司核心数据资产的建设,确保数据完整性与准确性。
5、制定并落地相关技术标准及使用规范,提升团队协作效率。
二、任职资格要求:
1、学历:优先考虑国内外全日制硕士研究生及以上学历人员。
2、专业背景:计算机、软件工程、信息通信、数学等相关专业方向。
三、工作技能要求:
1、熟悉Linux环境,掌握主流开发语言、工具及业务流程,精通Scala、Java、C++、Python中1至2种编程语言。
2、掌握Flink、Hudi、Paimon等大数据框架,具备扎实的实时湖仓项目实践经验。
3、具备Kafka、RocketMQ、ActiveMQ等消息中间件使用经验者优先考虑。
4、熟练运用FlinkSQL进行数据处理者优先。
5、了解通用基础大模型,具备AI数据集构建经验者优先。
6、具有大规模数据系统开发经历者优先。
山东淄博长期工年龄18-40岁。薪资福利:工资面议招工人数:1名工作时间:面议
临时工1-2人月结
长期工
年龄18 - 40岁。
薪资福利:工资面议
招工人数:1名
工作时间:面议
淄博淄川区招聘国夏优选✅员工1,年龄45岁左右,待遇面议电话:地址:电话联系
临时工1-2人
淄川招聘
国夏优选
✅ 员工 1 ,年龄 45 岁左右,待遇面议
电话:
地址:电话联系
杂工
300-400元/天
兼职包住包吃20人以上完工结算
兼职(山东淄博,烟台)
非销售岗
1.需要22以上
2.当地的优先
3.外地的到了
4.一单一结算,每单1000+多劳多得
5.工期2-3天包吃包住
6.只需10人先到先得
淄博周村区薪资福利:缴纳五险,节日福利邮箱:工作地址:大学城创业中心2号楼
临时工
薪资福利:缴纳五险,节日福利
邮箱:
工作地址:淄博市周村区大学城创业中心2号楼
临时工
招人招人!!工作内容:坐办公室吹空调打三角洲跑图,工作时间:8-10小时,夜班
工作要求:会玩三角洲不刚枪熟悉地图跑图就行,没有啥技术要求。☎电话
淄博淄川区员工年龄30-45岁,有工作经验优先薪资福利:3500-6000招工人数:数名工
3500-6000元/月
临时工
员工
年龄30-45岁,有工作经验优先
薪资福利:3500-6000
招工人数:数名
工作地址:淄川经济开发区钟楼红绿灯往北200米
山东淄博惠仟佳找小时工,8小时90,年龄55周岁以下,有健康证,从1.30到正月初六,电话
临时工
惠仟佳找小时工,8小时90,年龄55周岁以下,有健康证,从1.30到正月初六,电话
临时工月结
工人
年龄30岁 - 45岁,能吃苦耐劳,工作认真负责,有责任心的优先录用
薪资福利:月工资3000元
栏目概述
鱼泡直聘为工人提供淄博大数据工程师招聘信息在线招聘信息,主要招聘淄博数据开发相关人才。作为数据开发工人,如果您具备一定的工作经验,并且能够熟练掌握相关的岗位技能和了解数据开发的工作职责。那么您将是我们需要的人才,平台上有更多的工作机会适合您。