搜索
登录注册
OpenMini
数据开发3-5年本科及以上JavaDoris原理/源码要求数据开发经验Doris/DruidElasticsearch原理/源码ScalaSpark原理/源码大数据引擎开发经验Flink原理/源码Kafka
任职资格: 1.计算机或大数据相关专业,本科及以上学历,具备3年以上实际开发工作经验; 2.熟悉MySQL、Hadoop、MongoDB、Redis、Kafka、HBase、Spark、ES等主流数据库技术,具备较强的SQL编写与性能优化能力; 3.掌握Flink、Kafka、Hive、Spark、Doris、DataX等大数据生态组件的实际应用; 4.具备Hadoop集群的部署与运维能力; 5.深入理解Hive运行机制,并掌握常见调优策略; 6.精通SQL、Java、Shell等常用编程语言; 7.熟悉DolphinScheduler、阿里云DataWorks、XXL-JOB等任务调度工具的使用与配置; 8.具备分布式系统设计或大规模数据处理经验者优先考虑; 9.对互联网技术有浓厚兴趣,具备规范的编码风格和良好的技术文档编写习惯; 10.具备良好的沟通表达能力,逻辑清晰,勤于思考,能够独立完成问题分析与解决; 11.责任心强,具备团队协作意识,抗压能力强,心态积极乐观,能快速融入团队工作氛围。
Hadoop3-5年本科及以上
岗位职责: 1.负责实时大数据平台的开发类工作。 2.对实时大数据平台进行日常管理和维护工作 3.负责平台日常故障跟踪与处理 岗位要求 1.全日制统招本科以上学历,3年以上大数据平台开发工作经验经验 2.熟悉Hadoop、HBase、Kafka和flink的产品技术栈,有具体的项目开发经验 3.有大数据平台使用和维护经验,熟悉大数据平台组件的运行原理 4.具备一定的开发经验,对java和python开发语言使用熟练,有java开发经验 5.有doris数据库的使用和维护经验,熟悉doris的问题排查 6.有接受短时间的出差
数据开发
1-1.5万元/月
数据开发3-5年本科及以上Hive要求数据开发经验银行ETL开发经验数据仓库开发经验SQL
职责: 1.构建并实现基于SparkSQL的大规模数据处理方案,支撑银行领域的业务应用场景。 2.对SparkSQL查询进行性能调优与参数优化,保障数据运算的高效性与准确性。 3.协同数据科学家及数据分析人员,提供底层数据支撑与定制化查询服务。 4.参与大数据平台的整体架构规划与代码开发,提升系统稳定性与横向扩展能力。 要求: 1.拥有计算机科学或相关专业本科及以上学历。 2.具备实际使用SparkSQL进行大数据开发的经验。 3.掌握Scala语言,能够熟练编写高质量代码。 4.了解Hadoop技术体系,熟悉HDFS、YARN及MapReduce工作机制。 5.深入理解分布式计算架构与大数据处理核心原理。 6.具备较强的逻辑分析能力以及良好的沟通协作意识。 加分项:具备金融行业背景或了解银行相关业务流程者优先考虑。
数据开发3-5年本科及以上Java要求数据开发经验ETL开发经验Spark数据平台开发经验
岗位职责 负责项目的数据开发工作。 1、本科学历,计算机相关专业,3年以上大数据工作经验,有上线产品者优先; 2、精通Python,具备扎实的编程能力,能独立开发高质量、可维护的Python工具脚本和模块; 任职资格 3、熟练掌握Hive/Fresco/Hadoop/Spark生态相关组件; 4、熟悉Hive和Spark开发与调优,具备大型数据平台建设与优化经验; 5、有数据安全类项目开发经验者优先。
数据开发1-3年本科及以上数据分析要求数据开发经验大数据框架数据建构大数据生态组件其他数据开发经验非外包类计算机相关专业PythonSQL数学/统计相关专业
岗位职责: 1.文本数据处理:参与中文文本的清洗、整理与标准化操作,涵盖分词处理、拼音标注、实体抽取、错别字修正等相关任务。 2.数据分析:基于用户行为日志等大规模数据开展分析工作,提炼有效信息,支撑产品迭代与业务发展决策。 3.数据构建:协同算法团队,依据模型训练需求,完成高质量训练集、验证集及测试集的构建与预处理。 任职要求: 1.经验背景:具备2年及以上数据开发或数据处理相关经验,计算机、统计学或相近专业本科及以上学历。 2.技术能力: Python:熟练掌握Python编程,熟悉多线程/多进程开发,能编写高效稳定的数据处理程序。 SQL:精通SQL语言,具备复杂查询编写、数据转换逻辑实现及查询性能调优能力。 大数据框架:有Spark等分布式计算平台的实际项目经历,可胜任大规模数据并行处理任务。 3.文本处理:掌握主流中文文本处理方法(如分词、拼音标注、错别字纠正等),并具备实际项目落地经验。 4.数据分析与理解:具备扎实的日志数据分析能力,善于从海量数据中识别问题并挖掘价值;充分认知数据质量评估的意义与目标。 加分项: 1.AI数据经验:具备为AI模型(特别是NLP、大语言模型LLM方向)准备和构建训练数据的经验者优先考虑。 2.工程实践:对数据高度敏感,注重代码质量,具备良好的编程规范与工程化思维。 3.工具与平台:熟悉Hadoop、Hive、Kafka等大数据生态组件者优先录用。
大数据
1.4-1.8万元/月
数据开发3-5年本科及以上JavaHive要求数据开发经验数据平台开发经验金融行业经验
岗位职责: 1、参与业务逻辑模型的梳理工作,协助搭建和维护数据体系,并基于数据开展业务分析支持; 2、参与数据仓库与BI项目的需求调研、跨部门业务沟通及数据分析任务,负责编制需求文档、数据调研材料及分析成果报告; 3、协助设计数据仓库的模型架构、ETL流程及字段映射规则,参与数据仓库、BI系统与各业务系统间接口方案的设计与确认; 4、配合完成多维度的数据提取与分析工作,具备一定的数据建模实践经验者优先; 5、参与基金、保险、证券、信托、银行等领域数据仓库架构规划,承担ETL开发、性能调优及日常运维相关工作; 6、参与数据治理工作,持续优化数据使用体验与数据质量水平; 任职资格: 1、掌握数据仓库核心技术,包括ETL处理、报表开发,具有4年以上相关经验,熟悉数据库原理与数据建模方法,具备实际项目经历及性能优化经验; 2、编程与SQL能力扎实,了解Hadoop生态常见组件及其基本工作机制,能够应对数据倾斜等典型分布式计算问题; 3、对数据具有敏锐洞察力,工作认真细致,擅长通过数据分析识别潜在问题; 4、具备优秀的数据解读能力和快速学习能力; 5、沟通表达良好,逻辑思维清晰严谨;
数据开发3-5年本科及以上Hive要求数据开发经验ETL开发经验Spark数据平台开发经验SQLPython
岗位职责: 1、协助梳理业务逻辑框架,参与数据体系的规划与搭建,基于数据开展业务洞察与分析。 2、参与数据仓库及BI项目的需求调研、跨部门沟通与数据分析工作,输出需求文档、数据调研材料及分析报告; 3、协助设计数据仓库模型架构、ETL流程及字段映射规则,参与数据仓库、BI系统与业务系统间接口方案的设计与确认; 4、协助完成多维度数据的提取与分析,具备一定数据建模实践经验者优先; 5、协助分析模块的数据模型构建与可视化呈现设计 任职资格: 1.本科及以上学历,统计学、数学、计算机等相关专业背景; 2.熟练掌握至少一种主流关系型数据库,精通SQL/Hive/Spark编程,了解shell、python等脚本语言; 3.具备扎实的数据分析能力与学习能力,沟通顺畅,逻辑思维严密; 4.具有良好的团队合作意识,责任心强,乐于学习,能够独立分析并解决实际应用问题
数据开发3-5年本科及以上Java要求数据开发经验Doris/Druid
岗位职责: 1.负责Doris集群及其它大数据基础组件的稳定运行与维护。 2.承担大数据平台的日常运维工作,包括系统监控、问题排查及突发事件的应急处理; 岗位要求 1.全日制统招本科及以上学历,具备3年以上大数据平台开发相关经验; 2.熟练掌握Doris的安装部署、配置管理、性能优化及运维操作,深入理解其内部机制,具有生产环境实际应用经验者优先; 3.拥有大数据平台的使用与维护背景,熟悉Hadoop、Hbase、Kafka、Flink等主流组件的运行原理; 4.具备快速分析并解决系统故障的能力; 5.具备较强的沟通协调能力、团队合作意识以及高度的责任感,能适应一定的工作压力; 6.可接受短期出差安排。
数据开发3-5年大专及以上JavaHive要求数据开发经验ETL开发经验k8sKafka非外包类Spark数据平台开发经验docker
岗位职责: 1.参与项目的需求梳理与技术设计,依据业务需求撰写相应的设计文档。 2.承担项目中数据接入、数据存储架构、数据分析应用等后端开发任务。 3.协同项目前后端环节,完成接口的设计与开发,配合团队成员共同推进项目落地。 4.按照团队规范,及时完成技术调研、文档整理、开发编码、测试支持及运维保障等工作。 岗位要求: 1.精通Java语言,具备扎实的编程基础和开发实践能力。 2.掌握大数据技术体系,熟悉Hadoop、Hive、Zookeeper等相关生态,具有Flink、Kafka等主流组件的实际开发经历。 3.熟练运用SQL,具备实际的查询性能优化经验。 4.熟悉Linux操作系统,可根据具体需求编写Shell脚本进行自动化处理。 5.了解主流数据库技术,如Mysql、Postgres、Clickhouse、Redis、Mongo、Doris、ElastiSearch、NEO4J等,并能灵活应用。 6.掌握Restful接口设计及SpringCloud等后端服务开发技术。 7.熟悉Docker与Kubernetes的技术架构,具备集群部署与日常维护能力。 8.本科及以上学历,计算机或相关专业背景,具备两年以上后端数据开发工作经验。
数据开发3-5年本科及以上Hive要求数据开发经验ETL开发经验Spark数据平台开发经验数据仓库开发经验FlinkSQL
工作职责 1.主导大数据项目的整体推进,对接客户明确业务目标,梳理并分析业务需求,将其转化为可行的技术实施方案;组建并带领数据开发团队,推动大数据项目高效落地执行。 2.负责大数据平台的架构规划与技术选型,主导数据建模、数据处理、数据开发及数据展示环节,构建完善的数据管理体系;识别大数据实施过程中的关键技术难题,统筹数据安全与隐私保护策略。 3.基于保险行业特性,设计面向大数据平台、数据服务及数据应用的高层次解决方案。 任职资格 1.熟悉数据湖、数据仓库、数据中台及数据应用相关理论体系,具备3年以上大数据领域工作经验(涵盖数据平台搭建、数据采集、建模、处理分析、可视化等方向)。 2.具备大型数据平台建设与运维实践经验,深入理解数据质量管理、数据生命周期管理、数据API发布及数据应用管理等相关数据治理内容。 3.熟知大数据存储与计算相关的开源框架及商业产品(如Hadoop、Hive、Hbase、Spark、Flink、Kafka、Flume、ZooKeeper等),掌握主流数据应用工具或产品(BI、多维分析、SAS等);熟练使用Java或Scala,具备Python、R语言能力者优先。 4.责任心强,具备出色的沟通协调能力与团队领导力,富有创新思维。 5.了解保险行业业务流程与核心指标体系,熟悉智能核保、智能理赔、客户经营分析等典型分析场景与方法框架。 6.全日制本科及以上学历,计算机、统计学、数学等相关专业优先,毕业证和学位证需可在学信网查询验证。 技能要求:DataPlatform,CDH,Hadoop,Spark,Flink,Hive,Hbase,Kafka,Flume
常州武进区招弱电1.有过设备接线放线经验2.必须有登高证和电工证双证3.作业工期年前
弱电工电工证
常州市武进区招弱电 1.有过设备接线放线经验 2.必须有登高证和电工证双证 3.作业工期年前
常州 武进区
12月24日 13:07拨打电话
钳工电工
#苏州吴中区 万祥 电工大工404人 钳工大工3610人 明天8点半到,工期一个月,到面。有吃有住。 电话
苏州 吴中区
12月24日 13:07拨打电话
南通通州区九圩港招电焊、钢结构安装,主要做电梯井和平台的装配,焊接。在地面场地制作。
钢结构电焊焊接
南通市通州区九圩港招电焊、钢结构安装,主要做电梯井和平台的装配,焊接。在地面场地制作。
南通 通州区
12月24日 13:07拨打电话
江苏徐州淮海来个疏通马桶的。
管道疏通厕所疏通
淮海来个疏通马桶的。
徐州
12月24日 13:06拨打电话
餐厅领班服务员传菜员
招聘:前厅主管一名 ,工资7000+提成,服务员2 名,工资5000 +提成,熟练工优先,35 岁以下,传菜一名4500,月休四天,包吃住,
江苏
12月24日 13:06拨打电话
数据开发北京
1.4-1.5万元/月
数据开发3-5年本科及以上Hive要求数据开发经验MySQL/SQL ServerSpark数据仓库开发经验Oracle数据治理经验SQL
1.计算机科学、信息技术、统计学等相关专业本科及以上学历。 2.具备3年以上企业级数据仓库开发经验,熟悉数据仓库体系架构,能够梳理复杂业务逻辑,有Hive、Doris、Oracle等数据仓库使用经验者优先。 3.熟悉数据建模方法及ETL流程设计,掌握数据仓库架构设计与性能调优技术。 4.精通SQL编写与数据库运维管理,拥有在大规模数据库环境中实际操作的项目经验。 1.负责公司数据仓库与数据集市的设计、开发与日常维护,保障数据准确性与更新时效。 2.参与数据模型设计工作,持续优化数据存储结构,提高数据检索效率。 3.对接业务部门,深入理解需求,提供针对性的数据支持与解决方案。 4.承担ETL流程的开发与性能优化任务,保障数据链路稳定且具备良好可扩展性。 5.持续监控数据平台运行状态,快速定位并解决系统异常与性能问题。 6.参与数据治理体系搭建,推动数据质量提升与合规性管理。 7.关注数据仓库领域前沿技术动态,开展技术评估与落地应用,增强平台整体能力。
数据开发
9000-14000元/月
数据开发经验不限本科及以上SparkPython
一、核心职责 1.数据仓库与数据模型建设: 1.1负责基于阿里云MaxCompute构建、维护和优化企业级数据仓库/数据湖。 1.2参与数据模型的设计与开发,包括维度建模、数据分层(ODS、DWD、DWS、ADS),并保证模型的规范性和可复用性。 2.数据处理与开发: 2.1使用DataWorks进行数据采集、同步、清洗、转换和加载(ETL/ELT)任务的开发与调度。 2.2编写高效、规范的SQL和PySpark/MaxComputeSQL脚本,处理海量数据。 2.3负责数据血缘、数据质量监控体系的搭建与维护。 3.查询引擎应用: 3.1利用Hologres进行实时/交互式数据查询服务的开发,支撑高并发、低延迟的BI报表和用户画像等应用场景。 3.2理解并优化Hologres表的设计(如行列共存、分区键、索引等),以提升查询性能。 4.数据服务API开发与设计(新增/强化): 4.1设计、开发并维护高性能、可扩展的数据服务API,将数据仓库和数据模型中的核心数据能力服务化。 4.2与数据产品团队紧密协作,理解快消行业(如销售分析、渠道管理、消费者洞察等)的业务逻辑,并将其落地为数据产品与API服务。 4.3将加工后的数据通过数据API、数据报表等方式,提供给下游数据产品和使用方。 二、任职要求(硬技能) •必备经验: 1、3年以上大数据开发经验,至少1年以上基于阿里云大数据体系(MaxCompute,DataWorks,Hologres)的实战项目经验。 2、精通SQL,具备强大的SQL性能调优能力,熟悉MaxComputeSQL者优先。 3、熟练使用DataWorks进行数据集成、任务开发、工作流调度和运维监控。 4、有Hologres或其他OLAP数据库(如ClickHouse,Druid)的实际开发和使用经验,理解其核心原理。 •技术栈: 1、熟悉一种以上编程语言,如Python、Java或Scala,并能在数据开发中应用(如UDF开发、Spark任务等)。 2、具备数据API开发经验,熟悉至少一种常用的Web框架(如SpringBoot,Django,Flask等)和RESTfulAPI设计规范。 3、了解数据仓库理论,熟悉Kimball或Inmon的建模方法论。 •加分项: 1、有快消、零售、电商行业背景,熟悉相关业务数据模型(如商品、订单、会员、门店等)。 2、有阿里云其他相关产品经验,如Flink、QuickBI、DataV等。 3、具备数据治理经验,了解数据安全、数据标准、数据质量等领域的实践。
数据开发工程师
1-1.5万元/月
数据开发经验不限本科及以上要求数据开发经验数据仓库ETL开发经验数据建模经验Hadoop分布式技术非外包类实时数仓开发经验计算机相关专业数据平台开发经验SQLHive数据分析Elasticsearch
1.承担业务需求相关的数据开发工作; 2.参与企业数据处理逻辑的构建与性能提升; 3.参与公司各类数据模型的架构设计及持续优化; 4.建立数据治理、数据质量管控及元数据管理等标准化体系; 5.负责公司大数据基础平台的整体规划与技术架构设计。 6.具备实时数仓建设经验或熟悉Kylin工具者优先考虑。
大数据开发工程师
5000-8000元/月
数据开发1-3年本科及以上Java要求数据开发经验Kafka原理/源码ETL开发经验大数据引擎开发经验Flink原理/源码数据建模经验KafkaMySQL/SQL Server实时数仓开发经验非外包类数据
【职位描述】 1、参与业务需求对接,制定数据建模与系统实施技术方案; 2、承担数据仓库的开发与日常维护工作,依据数据模型构建并持续优化数据仓库架构,实现多源系统的数据集成与统一管理; 3、负责BI平台报表的设计、开发与运维支持,完成报表功能实现与性能调优,保障系统运行稳定、响应高效、界面操作流畅。 【任职要求】 1、熟悉MsSql/Oracle/MySQL等关系型数据库,具备扎实的数据库开发与管理能力; 2、熟练运用常用数据分析工具,如Excel、Python等; 3、掌握主流ETL工具的应用,如Informatica、ODI或Kettle等; 4、具备JavaScript等脚本语言的基础认知; 5、本科及以上学历。
大数据开发
1.2-1.6万元/月
数据开发3-5年本科及以上要求数据开发经验实时数仓开发经验Sparkhadoop数据平台开发经验FlinkSQLPython
物流系统项目-大数据开发1人(佛山美的项目) 技能要求: 1、掌握Hadoop、HBase等分布式计算平台的开发与应用,具备3年以上Hadoop实际使用经验,有大数据应用系统开发背景 2、熟练运用Kettle等ETL工具进行数据抽取与转换;具备一定的数据模型设计和数据架构理解能力,熟悉Hadoop、Hive及常用数据库技术 3、精通SQL/HQL语言,具备良好的SQL性能优化能力,有丰富的HiveSQL开发经验 4、熟悉ETL流程的设计、任务调度、运行监控及相关算法,能独立完成事实表与维度表的构建与开发 5、具备分布式系统开发经历,曾使用HBase完成2个及以上项目开发,或参与过HBase高并发场景系统支持者优先
Java3-5年本科及以上GolangMES开发经验物联网经验ERP
1、全日制计算机相关专业背景,具备4年后端开发实际经验; 2、精通Java语言,掌握IO、多线程、集合等核心基础知识,了解JVM运行机制;熟悉ERP类大型企业级系统架构与应用; 3、熟练使用主流开发框架,包括Spring、MyBatis等;有Go语言经验者优先考虑; 4、掌握分布式系统设计原理,具备分布式技术的实际应用能力; 5、熟悉微服务架构模式及常用技术体系,如SpringBoot、SpringCloud、Dubbo等; 6、熟悉常用缓存中间件,如Redis的使用场景与性能优化; 7、具备良好的沟通协作能力,团队意识强,善于分析问题并独立推动解决。 研发技术栈:java、springboot、springcloud、mysql、redis、rocketmq,熟悉常见设计模式,了解ddd领域驱动设计理念; 职责 1、负责IT研发项目计划的制定、执行跟踪与持续维护,统筹项目全生命周期管理; 2、科学规划项目目标与实施路径,明确任务分工,并根据实际情况动态调整项目计划;协调跨项目资源分配,提升资源利用效率; 3、全面主导技术项目的落地实施,把控项目进度与质量,确保项目按时高质量交付; 4、主导项目风险识别与管控,及时发现影响进度的问题并推动有效解决; 5、建立并推行项目管理流程与规范,保障项目执行标准化、有序化; 6、能够开展需求调研与客户沟通,梳理业务流程并参与系统方案设计,与开发团队评估需求可行性与合理性,参与需求评审与汇报; 7、具备较强抗压能力,表达清晰,具备优秀的沟通技巧与跨部门协作能力。
Java
1.5-1.6万元/月
Java1-3年本科及以上GolangC++SpringCloudRedisPython
岗位职责: 1、承担徳源农林公司各类系统的Java开发任务,保障代码质量与系统运行稳定; 2、参与系统模块的方案设计、编码实现及测试验证,协同团队共同提升产品品质; 3、依据实际业务需求完成功能开发与数据库结构设计,持续改进系统整体架构; 4、关注前沿Java技术动态,积极引入新技术以促进创新并提升团队技术水平。 任职要求: 1、熟练掌握Java语言及相关主流框架,如Spring、MyBatis等; 2、熟悉关系型数据库操作,具备扎实的SQL编写与性能优化能力; 3、具备较强的问题定位与解决能力,可独立完成模块开发工作; 4、具有良好的协作意识,沟通顺畅,能适应高效迭代的工作节奏。
临时工
"找徐州地区的加班懒散人士"或者"徐州寻找加班中的不勤勉者"。
徐州
12月23日 09:32拨打电话
江苏苏州 现在上班20:30下班男女180斜塘有车接送有人联系
临时工
  现在上班 20:30下班 男女180 斜塘有车接送 有人联系
苏州
12月15日 22:50拨打电话
江苏苏州现在上班一天一结18/时现在接人主要贴麦拉工人17到45想去私聊。
18元/时
临时工日结
现在上班 一天一结18/时 现在接人 主要 贴麦拉 工人17到45 想去私聊。
苏州
12月16日 13:12拨打电话
全栈开发工程师
9000-14000元/月
全栈工程师1-3年大专及以上全栈无侧重全栈项目经验
岗位职责: 1.承担公司产品全栈开发任务,保障开发质量与系统性能; 2.规划并实现新软件模块,满足功能需求与性能标准; 3.持续优化现有系统性能,提升稳定性与可扩展性; 4.参与产品整体架构设计,提供可行的技术实施方案; 5.编写和维护相关技术文档,确保代码规范与可维护性。 岗位要求: 1.具备一年以上全栈开发实践经验; 2.精通Java、JavaScript等主流编程语言; 3.掌握Spring等后端开发框架的使用; 4.具有良好的前端交互实现能力; 5.对系统性能调优有清晰认知; 6.具备较强的学习意识与问题排查能力。
Java
8000-13000元/月
Java3-5年大专及以上全栈开发MySQL软件工程师SVNMVC开
岗位职责 1、承担项目业务需求的方案设计与编码实现工作; 2、参与需求分析讨论,完成详细设计方案,并与相关方进行需求解读与技术讲解; 3、按开发计划完成代码编写,确保高质量按时交付; 4、协助解决线上问题,快速定位故障并实施修复; 5、负责开发过程中单元测试执行,落实代码自测环节; 6、协同完成调试记录、技术文档、操作手册等相关资料编写; 7、完成上级交办的其他工作任务; 任职要求 1、大专及以上学历,电子、通信、网络、计算机或相关专业背景; 2、具备1年以上Java开发经历,掌握JavaEE技术架构; 3、熟练运用主流Web框架:Spring、SpringMVC、springsecurity、springboot、MyBatis、Netty等; 4、了解缓存机制、异步处理、多线程编程,深入理解TCP/IP、HTTP等网络协议及其应用场景; 5、精通HTML5、JavaScript,熟练使用Vue.js/Angular等前端开发框架; 6、具备较强的学习意识、沟通技巧、环境适应力,责任心强,积极进取,富有自我推动力和团队合作精神; 7、具有Modbus、iec101/104等通信协议开发经验者优先考虑; 8、熟悉Linux系统基本操作,具备Linux环境下程序部署与调试经验者优先。
江苏扬州招小时工四名想做的可以联系我哦,联系我
临时工3-5人
招小时工四名想做的可以联系我哦,联系我
扬州
12月18日 20:49拨打电话
C/C++5-10年本科及以上C调度优化内核Linux开发/部署经验CPU调度
岗位职责: 1.负责Linux内核调度模块的性能调优与功能增强 2.针对系统运行效率开展深度分析,制定优化策略,覆盖游戏及通用应用场景 3.跟进CPU相关先进技术趋势,推动创新技术在MIUI系统中的实际应用 任职要求: 1.熟悉Linux内核调度机制,具备扎实的理论基础与实战能力 2.拥有内核稳定性维护经验,可高效定位并解决死锁、同步、并发等复杂问题,具备大型驱动模块设计与调试经历者优先 3.掌握Linux内核核心原理,具有开源社区贡献记录者更佳 4.具备在高通、联发科等主流芯片平台进行调度优化实践者优先考虑 5.五年以上从事CPU内核性能优化相关工作经历 6.具备良好的问题分层拆解与系统性分析能力
网管包吃包住20人以上月结全职
网管保底6000+会员卡提成,综合到手6500-7500左右包吃包住(工资高低由提成决定,保底不变) 一、薪资待遇:薪资6500-7500免费包吃包住 1、包吃住,当天面试通过安排住宿 2、空闲时间可玩手机电脑,每月老板补助员工娱乐网费300元。 3、每月10号准时发放工资,不压工资、不拖欠、节假日提前发放。 二、招聘要求: 16--30岁,身体健康、男女不限,学历不限(无经验带薪培训) 三、上班时间: 早上8:00-下午8:00,每天10小时,上六休一。 四、岗位职责: 1、主要负责网吧的收银、结算、理账工作,保存收据; 2、负责给顾客开电脑,办会员卡;(没证的老板可免费办理) 3、顾客走后,检查电脑是否关闭,摆放整齐; 4、负责更换网吧鼠标键盘耳机等服务工作。 5、服务员,做好接待,帮顾客点餐,送餐等服务。 五、福利待遇: 公司免费提供吃住,公寓式独立宿舍标准2-4人间,空调、热水、洗衣机、洗澡间等基本生活设施齐全,交通便利;工作餐:用餐自助餐形式员工可自主选择。
栏目概述
展开
鱼泡直聘为工人提供数据库开发工程师招聘在线招聘信息,主要招聘江苏数据开发相关人才。作为数据开发工人,如果您具备一定的工作经验,并且能够熟练掌握相关的岗位技能和了解数据开发的工作职责。那么您将是我们需要的人才,平台上有更多的工作机会适合您。
©2017-2025 版权所有蜀ICP备17030551号
川文网[2019]4675-349号 川B2-20190430
川公网安备51019002003946
成高社发[2019]12号
登录获得更多高薪职位推荐