
西宁城北区招聘工作人员2名底薪:3500元+提成
3000-6000元/月
临时工有提成免费培训包住1-2人月结全职
招聘
工作人员2名
底薪:3500元+提成
兼职发抖音
30-40元/时
兼职有提成20人以上完工结算
你好,抖音平台发一条视频¥5,内容我提供(产品宣传)
这边做好视频和标题一起发给你,你直接复制粘贴发布视频就可以。(平台视频需要保留15天以上)
例如:今天发完之后,明天早上咱俩会联系,需要昨天发的内容页面截图,需要看一下阅读量。阅读量过百即可转5元长期稳定。
3分钟完事,简单方便。
数据分析师(初级、高级)
5000-9000元/月
数据分析师1-3年本科及以上计算机相关专业数据分析/挖掘经验
岗位职责:
1、日常业务数据分析、营销活动数据监控,汇总及统计,形成数据监控报告;
2、协助制作基于业务发展或营销活动的专题分析;
3、可独立完成数据分析项目中的数据需求编写、数据探索分析和分析结果可视化展示工作,编写数据分析报告;
4、针对业务场景具备数据需求、数据调研、数据采集工作,完成数据的统计分析、固定报表的开发、整合、优化。
岗位要求:
1、全日制本科及以上学历;
2、2年及以上数据岗工作经验、有运营商同类数据开发、数据分析工作经验优先考虑;
3、具备良好的团队合作精神、高度的责任心,工作积极主动,具有一定的抗压能力;
4、逻辑性强,思路清晰,对用户数据敏感,可独立完成相关数据工作。
数据分析师
5000-8000元/月
数据分析师本科及以上
职位详情
一、岗位职责:
1、日常业务数据分析、营销活动数据监控,汇总及统计,形成数据监控报告;
2、协助制作基于业务发展或营销活动的专题分析;
3、可独立完成数据分析项目中的数据需求编写、数据探索分析和分析结果可视化展示工作,编写数据分析报告;
4、针对业务场景具备数据需求、数据调研、数据采集工作,完成数据的统计分析、固定报表的开发、整合、优化、
二、任职要求
岗位要求:
1、全日制本科及以上学历;
2、2年及以上数据岗工作经验、有运营商同类数据开发、数据分析工作经验优先考虑;
3、具备良好的团队合作精神、高度的责任心,工作积极主动,具有一定的抗压能力;
4、逻辑性强,思路清晰,对用户数据敏感,可独立完成相关数据工作。
数据专员
4000-5000元/月
数据分析师经验不限高中及以上
工作时间:10:00-19:00周末单双休
岗位职责及工作内容如下:
1、承担厂家相关业务,掌握厂家返利政策与采购考核要求,依据库存状况开展进销存管理,定期完成门店库存补充与调拨安排
2、处理数据相关事务,按业务逻辑支持内外部报表制作,汇总并归档厂家政策信息,核对厂家SO、ST返利及礼品核销账目,跟踪返利到账进度
3、熟练使用办公软件,具备良好的报表分析能力
4、负责公司各渠道采购事宜、售前询价工作,整理供应商资料并做好合同归档管理
(餐补+带薪年假)数据开发工程师
1.5-2万元/月
数据开发3-5年本科及以上要求数据开发经验PostgreSQLSpark原理/源码ETL开发经验大数据引擎开发经验Flink原理/源码数据建模经验MySQL/SQL Server实时数仓开发经验数据平台开发经
岗位职责
岗位要求:1、 本科及以上学历,计算机相关专业;
2、具备ODS、DW项目开发背景;掌握Datastage、PLSQL、Oracle者优先考虑;
3、精通SQL语言,了解主流数据库技术,包括Oracle、Mysql、Hive、HBase等;具备GUASSDB、OceanBase、TIDB等分布式数据库的相关技能;
4、掌握常见ETL开发工具,例如Datastage、Informatica、Kettle等;
5、了解作业调度机制,熟悉常用调度平台,如CA、WM、Control-M等;
6、了解hadoop生态体系相关技术;
7、熟悉linux操作系统命令,能够编写shell脚本;
8、具备良好的学习能力、沟通表达能力和团队协作意识。
数据分析师
8000-9000元/月
数据分析师经验不限硕士及以上金融行业数据相关经验SASSQLPython数学/统
岗位职责:
1.负责海量数据的清洗、分析与评估工作;
2.为客户提供数据分析解决方案,涵盖统计模型的设计、开发及落地实施;
3.能够以书面和口头形式,向技术与非技术人员清晰传达分析结果;
4.采用有效手段对统计模型方案的执行过程进行验证与核验;
5.主导银行贷款产品(侧重小微企业方向)的风险控制流程、决策机制及风控策略的规划与优化。
任职条件:
1.本科及以上学历,统计学、数学、经济学等相关专业优先考虑;
2.具备2年以上数据清洗、评估、统计建模与分析经验,有银行相关项目经历者优先;
3.对数据具有敏锐洞察力,热爱数据分析工作,拥有扎实的分析经验与良好的逻辑思维能力;
4.掌握逻辑回归、聚类等常用机器学习模型的基本原理;
5.熟练使用sas/sql/python中至少一种数据分析工具;
6.具备优秀的沟通表达能力,能准确传递分析思路与结论;
7.具有强烈的责任意识和团队协作精神。
大数据开发工程师
1.2-1.3万元/月
Hadoop数据开发3-5年大专及以上外包类要求数据开发经验数据治理经验数据建模经验数据平台开发经验PythonSQLScalaSparkHiveFlinkHBaseKafkaSpark原理/源码Flink原理/源码Hive原理/源码HBase原理/源码Kafka原理/源码MySQL原理/源码PostgreSQL原理/源码Oracle原理/源码
数据开发招聘要求:
职责描述:
1. 负责公司产品核心业务的开发以及bug修复;
2. 参与产品的讨论,进行业务系统的需求分析及开发,包括撰写文档、设计编码、测试、维护、升级;
3. 负责高质量的设计和编码、承担重点、难点的技术攻坚;
4. 独立编写开发相关文档。
技术要求:
1.精通Python,熟悉linux环境开发,了解容器化开发部署
2.精通Flink,熟悉Flink-CEP优先。
3.熟悉mysql、redis、elasticsearch、Clickhouse数据库;
3. 具有3-5年相关工作经验,计算机及相关专业本科以上学历;
4. 熟悉Django/Tornado/Flask等主流Web框架之一
5. 掌握协议、存储、缓存等,最好有大数据研发经验。
6. 熟悉Hadoop生态相关技术以及原理优先,包括但不限于:hdfs、hive、hbase、spark、flink、impala;
7. 熟练使用pandas和scripy等主流的数据库
8. 熟悉spark、sparkstreaming,有大数据分析相关经验
3. 学习能力强,思维清晰,沟通良好,具备良好的分析、理解、解决问题的能力;
工作要求:
1、数据类需求开发工作,包括数据采集,数据处理;
2、根据设计文档或需求说明完成代码编写,调试,测试、部署、维护;
3、完成软件系统代码的实现,编写代码注释和开发文档;
4、分析并解决软件开发过程中的问题;
5、配合项目经理完成相关任务目标。
大数据工程师(高级)
1.5-3.5万元/月
数据开发Hadoop5-10年本科及以上非外包类
岗位职责(企业数据治理,需要面向企业数据的治理,如企业工商、经营信息、经营风险、法律诉讼、知识产权、上市信息 等等,如有企查查、天眼查 的数据治理经验的)
1、大数据平台架构设计与核心开发
主导企业级大数据平台的架构设计与核心模块开发,负责平台的稳定性、可扩展性与性能优化,支撑 PB 级数据的存储、计算与分析。
2、数据链路建设与治理
设计并实现从数据采集、清洗、加工到入库的全链路 ETL 流程,构建分层数据仓库(ODS/DWD/DWS/ADS)体系,推动数据治理与质量管控,保障数据准确性与安全性。
3、实时与离线计算场景落地
基于 Flink、Spark 等技术构建实时数据处理管道(如从 Kafka 采集到 OLAP 引擎计算),同时负责离线数仓开发与优化,支撑业务的实时监控、用户画像、精准营销等场景。
4、技术方案输出与团队赋能
输出高质量技术文档与方案,主导复杂技术问题攻坚,并指导初级工程师成长,推动团队工程化能力与技术沉淀。
5、业务场景深度赋能
深入业务一线挖掘数据价值,设计数据驱动的解决方案,推动数据在业务决策、运营优化中的落地应用,支撑企业数字化转型。
6、系统运维与优化迭代
负责大数据集群(Hadoop、Kafka、Hive 等)的日常运维与故障排查,通过性能调优、资源调度优化提升系统运行效率,并跟进前沿技术进行架构演进。
任职要求
一、硬性条件
1、学历背景:计算机、软件工程、数学、统计等相关专业本科及以上学历,985/211 院校优先。
2、经验要求:5 年以上大数据开发经验,其中至少 2 年负责过大型大数据平台或核心业务系统的架构设计与全流程开发,有金融、电商、零售等行业项目经验者优先。
3、项目经验:具备完整的大数据平台从 0 到 1 搭建经验,主导过实时计算、数据仓库建设等核心项目。
二、技术能力
1、核心技术栈:精通 Java/Scala,熟练掌握 Python,具备扎实的算法与数据结构基础。
2、大数据生态:精通 Hadoop 生态体系(Hadoop、Spark、Flink、Hive、Kafka 等),深入理解 Flink/Spark 的运行时架构、状态管理与性能调优。
3、数仓与 OLAP:精通数据仓库建模理论(维度建模、分层设计),熟悉至少一种 OLAP 引擎(如 StarRocks、ClickHouse),具备复杂场景下的数仓优化经验。
4、数据工具与集成:熟练使用 ETL 工具(Airflow、Kettle、Sqoop 等),掌握向量数据库、NoSQL 数据库(MongoDB、Redis)的应用,具备 API 设计与系统集成能力。
5、工程化能力:熟悉 Linux 系统与 Shell 脚本,具备容器化(Docker)与编排(K8s)经验,掌握 Git 协作与 CI/CD 流程。
三、软技能
1、具备极强的逻辑思维与系统架构能力,能够将复杂业务需求转化为清晰的技术方案。出色的问题分析与解决能力,能独立排查和解决集群故障、数据延迟等核心问题。
2、优秀的跨部门协作与沟通能力,能与业务、产品团队深度协同,推动数据价值落地。具备敏锐的数据敏感度与业务洞察力,能从数据中发现业务机会与风险。
3、保持技术热情,主动跟进大数据领域前沿技术(如湖仓一体、实时数仓、AI + 大数据融合)。
四、加分项
1、有云原生大数据平台(阿里云 MaxCompute、AWS EMR 等)开发经验。
2、具备机器学习 / 深度学习在大数据场景的落地经验。
3、有大规模数据治理、数据安全与隐私保护项目经验。
高级数据开发工程师
1.3-1.4万元/月
数据开发3-5年本科及以上数据治理数据架构ETLSqlHadoopFlinkSpark数据湖设计数据质量提升实时数据开发
工作职责
1. 主导企业数据湖与数据仓库的架构规划、开发优化及日常维护,确保数据链路稳定、高效、可靠运行。
2. 负责数据建模、ETL流程开发、数据清洗与集成同步等全链路工作,支撑业务报表生成、数据分析及各类数据应用场景落地。
3. 牵头推进数据标准制定、数据质量管理、元数据管理等相关治理工作,提升数据规范性与业务可用水平。
4. 对接业务方需求,拆解业务流程并设计数据解决方案,完成指标体系搭建、数据看板开发及数据服务接口交付。
5. 定位并处理数据生产任务中的异常、延迟与质量问题,通过SQL调优、调度策略调整和存储资源优化提升执行效率。
6. 参与数据平台技术选型、架构升级与能力沉淀,输出标准化文档与可复用的技术实践方案。
任职要求
1. 本科及以上学历,计算机、软件工程、数据科学等相关专业,具备4年以上数据开发、数据治理或数据仓库领域工作经验。
2. 熟练掌握SQL,具备复杂查询编写、性能优化与执行调优能力,熟悉Oracle、MySQL、PostgreSQL及主流国产关系型数据库。
3. 熟悉至少一种大数据技术栈(如Hive、Spark、Flink、Doris、ClickHouse、Iceberg等)。
4. 了解ETL开发流程,具有数据建模、分层设计及指标定义实践经验。
5. 有数据治理背景者优先,包括对数据标准、质量控制、元数据、血缘关系及安全管理体系的理解与应用。
6. 具备较强的业务洞察力、需求分析能力和文档撰写能力,能够独立输出高质量的数据解决方案。
7. 责任心强,抗压性好,具备问题排查与解决能力,拥有团队协作与跨部门沟通经验。
8. 具备数据中台建设、实时计算开发或数据平台运维经验者优先考虑。
补充说明
加分项:
- 具备能源、油气等行业数据体系建设经验;
- 熟悉主流调度工具(如Airflow、DolphinScheduler、XXL-Job等);
- 掌握Python/Shell脚本语言,能实现数据自动化处理;
- 具备数据可视化能力,熟悉BI工具使用(如帆软报表、帆软BI、SmartBI);
- 持有数据库DBA认证或CDGP等数据治理相关资质证书。
数据开发
8000-12000元/月
数据开发3-5年本科及以上HiveShell要求数据开发经验Spark数据仓库开发经验数据治理经验金融行业经验
岗位要求:
1. 计算机或相关专业背景,熟练掌握常用算法与数据结构,具备4年以上数据开发或数据分析相关工作经验;
2. 精通SQL,熟练操作HIVE、MYSQL等主流数据库;
3. 拥有4年以上金融行业从业经历,熟悉银行业务流程,掌握存款、贷款等核心业务,具备监管报送、需求分析及系统开发支持能力;
4. 具备出色的数据分析与逻辑思维能力,了解银行会计基本原理;
5. 热衷于攻克复杂问题,善于独立思考与问题拆解,工作踏实,抗压能力强;
6. 具备1104、大集中、EAST、反洗钱、征信等监管报送项目经验者优先考虑;
7. 取得全日制本科及以上学历。
座舱大数据研发工程师
3-3.5万元/月
数据开发5-10年本科及以上
岗位职责:"座舱大数据平台与处理构建并维护处理座舱多源数据(如车载信息娱乐系统(IVI)、驾驶员监控系统(DMS)等)的实时/离线数据管道。确保数据的高效接入、清洗、存储与治理。
多模态数据处理与特征工程处理座舱内的视觉(车内摄像头)、语音、文本及车辆时序数据。进行特征提取、数据标注(如情绪、手势识别),为AI模型提供高质量输入。
信息MCP化与大模型服务理解并应用 Model Context Protocol (MCP) 等协议,将处理后的座舱数据、知识库或服务接口,以标准化方式提供给大模型。优化数据供给效率,支持模糊语义理解、记忆贯通等高级功能。
Data Agent 开发与支持为智能座舱内的AI Agent(如个人助理)提供数据支持,包括记忆系统开发(学习用户习惯)、场景化数据服务(如识别儿童入睡自动调音量)以及Agent所需的数据接口。
数据分析与洞察协同与产品、算法团队紧密合作,通过数据分析定义产品指标、评估实验效果,并将业务洞察反馈至数据处理流程,形成闭环。"
任职要求:"核心技能编程与数据工程:精通Python及SQL;熟悉Spark/Flink等大数据处理框架;了解数据仓库建模。
AI与数据技术:具备多模态数据处理的实践经验;理解大模型及Agent的基本原理与技术生态;了解MCP等相关协议。
领域知识熟悉智能座舱基本架构(如IVI, DMS, OMS)和车联网数据;了解汽车网络协议(如CAN/LIN)者优先。
软技能出色的逻辑思维与解决问题能力;能主动沟通并协同产品、算法等多团队工作;对智能汽车行业有强烈兴趣。
教育背景计算机、软件工程、数据科学、电子工程、车辆工程等相关专业本科及以上学历。
优先项有座舱数据、车联网数据处理项目经验;接触过AIGC数据生成、Agent开发或相关开源生态者更具优势。"
临时工1-2人
2.ཟ་ཁང་ནང་དུ་བུད་མེད་ཞབས་ཞུ་བ་གཅིག་འཚོལ་བཞིན་ཡོད། ལོ་ཚོད 20–30རྒྱ་ཡིག་ཤེས་དགོས།
招聘员工1名、年龄20~30岁、双懂语言、长期、工资面议,
临时工1-2人
1.ཟ་ཁང་ནང་དུ་བུད་མེད་ཞབས་ཞུ་བ་གཅིག་འཚོལ་བཞིན་ཡོད། ལོ་ཚོད 20–30རྒྱ་ཡིག་ཤེས་དགོས།
招聘员工1名、年龄20~30岁、双懂语言、长期、工资面议,
临时工1-2人
1.ཟ་ཁང་ནང་དུ་བུད་མེད་ཞབས་ཞུ་བ་གཅིག་འཚོལ་བཞིན་ཡོད། ལོ་ཚོད 20–30རྒྱ་ཡིག་ཤེས་དགོས།
招聘员工1名、年龄20~30岁、双懂语言、长期、工资面议,
临时工1-2人
2.ཟ་ཁང་ནང་དུ་བུད་མེད་ཞབས་ཞུ་བ་གཅིག་འཚོལ་བཞིན་ཡོད། ལོ་ཚོད 20–30རྒྱ་ཡིག་ཤེས་དགོས།
招聘员工1名、年龄20~30岁、双懂语言、长期、工资面议,
临时工1-2人月结
识字,会骑三轮车,要长期。上班时间12点到10点,下午6点左右休息一小时吃饭时间
薪资福利:3500+全勤
招工人数:1名
青海黄南州河南县,需要灭鼠人员50人,工资一天130,出门进门算,明后两天就出发,去的请联
130元/天
临时工20人以上
黄南州河南县,需要灭鼠人员50人,工资一天130,出门进门算,明后两天就出发,去的请联系,
数据分析师/高级专员
1.2-1.8万元/月
数据分析师5-10年本科及以上Power BISQL数学/统计相关专业
1、负责品类与渠道的数据分析及精算工作
2、制定品类与渠道的定价策略及毛利测算逻辑,灵活运用多种定价方法构建符合企业需求的价格体系;
3、结合扎实的财务知识,精准分析成本结构、返点计算与促销活动效益,设计具备激励作用的各类别考核KPI方案;
4、搭建数据分析模型,按月输出各渠道及各品类的数据分析报告
5、熟练使用EXCEL、SQL、BI等数据处理工具,推进数字化分析平台的建设与优化
栏目概述
鱼泡直聘为工人提供黄南大数据工程师招聘信息在线招聘信息,主要招聘黄南数据开发相关人才。作为数据开发工人,如果您具备一定的工作经验,并且能够熟练掌握相关的岗位技能和了解数据开发的工作职责。那么您将是我们需要的人才,平台上有更多的工作机会适合您。