当前位置:网站首页 >> 文档 >> 最新大数据运维工程师任职资格(十五篇)

最新大数据运维工程师任职资格(十五篇)

格式:DOC 上传日期:2023-02-11 11:35:52
最新大数据运维工程师任职资格(十五篇)
    小编:zdfb

每个人都曾试图在平淡的学习、工作和生活中写一篇文章。写作是培养人的观察、联想、想象、思维和记忆的重要手段。相信许多人会觉得范文很难写?下面是小编帮大家整理的优质范文,仅供参考,大家一起来看看吧。

最新大数据运维工程师任职资格(十五篇)

大数据运维工程师任职资格篇一

1、负责大数据平台hawq数据库运维;

2、负责大数据平台tbase数据库运维;

3、负责传统数据(oracle、mysql等数据库)数据迁移、数据同步;

4、负责日常数据库的监控及问题分析排查;

5、负责ogg、kafafa等组件数据传输同步日常运维;

6、负责数据库的优化、sql语句的优化调优;

7、负责数据同步的检验与异常处理,确保数据的一致性、完整性、及时性;

8、负责制定数据同步方案及实施。

任职要求:

1、大专或以上学历,计算机或统计类相关专业

2、有3年以上技术类或数据类的开发经验;

3、熟练linux 系统操作及linux 运维监控、软件安装配置;

4、熟悉大数据技术,如hadoop、spark、storm、zookeeper等;

5、熟悉主流数据库mysql/sql serverl/oracle/postgresql等,精通sql语句,对复杂sql能进行优化,能熟练编写存储过程;

6、熟练linux shell,可以进行运维shell开发;

7、学习能力强,责任心强,具有优秀的沟通表达、理解能力与团队合作能力;

8、有centos 7、red hat 7等linux操作系统,有shell脚本编写经验的优先。

9、有3年以上的基于mpp(greenplum ,hawq,vertica,gbase等mpp db)数据仓库的实际运维经验或3年以上 hive、spark 实际项目运维经验

10、在实际项目中,有异构数据库迁移经验,从传统oracle,mysql迁移至mpp数据仓库的实战经验.

大数据运维工程师任职资格篇二

职责:

1. 负责公司核心集群的运维工作, 任务调度、监控预警,持续完善大数据平台,保证稳定性、安全性;

2. 负责集群容量规划、扩容及集群性能优化;

3. 基于大数据应用需求,持续优化hadoop框架及组件的配置,提升性能;

任职资格:

1.大专以上计算机,通信和网络相关专业;

2.3年以上中等规模集群环境下的hadoop/impala/hive/spark集群相关运维经验;

3.对各种hdfs/yarn/hive/impala/spark/hbase等相关参数调优, 性能优化等有实际经验;

4.有实际踩坑经历, 对于相关组件的版本跟进, 补丁跟踪, bug追踪等有相关经验;

5.实际处理过各种集群在线版本升级, 数据迁移, 集群扩容, 稳定性监控等工作;

6.熟悉kerberos安全认证系统,实施过集群权限管理, 资源隔离方面的方案规划或二次开发工作;

7.能维护hadoop源码,有hadoop 源代码bug修复或者源代码优化经验者优先;

8.有cloudera的cm使用经验尤佳。

大数据运维工程师任职资格篇三

职责:

- 负责局点大数据平台的部署、管理、优化、监控报警,保障平台服务7*24稳定可靠高效运行;

- 深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长;

- 开发大数据自动化运维、监控报警、故障处理相关脚本和工具;

- 负责hadoop/spark/kafka等集群服务、业务监控、持续交付、应急响应、容量规划等。

要求:

- 4年以上运维相关工作经验,有大数据平台运维相关工作经验优先;

- 具备一定的故障排查能力,有良好的技术敏感度和风险识别能力,精通一门以上脚本语言(shell/python等),熟悉http/https、tcp/ip、smtp等协议;

- 熟悉linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务。熟练使用linux 命令和常用的ssh、ftp、git、maven等开发工具;

- 熟悉hadoop大数据生态圈,包括但不限于cdh/hdfs/yarn/hive/hbase/kafka/zookeeper/spark/flink/impala/elasticsearch/kibana/mysql/kubernetes等;

- 熟悉hadoop各组件的原理和实现,有实际部署维护、管理( 包括元数据管理)及优化经验。并拥有持续调优能力,运维管理过大规模数据平台;

- 熟悉掌握常用的安全协议和组件服务,对hadoop各组件的权限、安全、kerberos进行配置管理。熟悉ssl、acl、kerberos等在大数据环境场景的使用;

- 熟悉常用运维监控工具(nagios/ganglia/zabbix/grafan/openfalcon等)和相关插件的开发。比如邮件、短信、微信报警插件等;

- 熟悉常用nginx/haproxy/varnish/netscaler等代理工具的使用和优化;

- 具备良好的服务意识,善于主动思考,自我驱动力强。有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力;

- 有大数据开发经验和阅读源码能力者优先

大数据运维工程师任职资格篇四

职责:

1负责政务云平台、政务应用系统中数据库业务的日常运维,保障平台及应用系统服务7*24稳定可靠高效运行

2负责数据库性能调优,了解锁与隔离机制,协助客户解决数据库性能瓶颈

3制定数据库使用规范,制定数据库备份、升级、迁移规划并部署实施

4参与数据库设计工作,提高数据库维护自动化水平

5熟悉linux操作系统,熟练使用python,go,shell等至少一种语言

岗位要求:

1) 5年以上 oracle/mysql dba 从业经验;

2) 熟练掌握 oracle/mysql 数据库的基础理论知识、运行机制、体系架构、高可用方案、备份机制、容灾机制等;

3) 熟练掌握数据库性能优化,了解主流的分布式数据库 spanner/cassandra;

4) 熟悉 linux/unix 操作系统,对服务器硬件有一定了解;

5) 熟练掌握 golang、python、java 等语言中的一种;

6) 熟悉阿里云产品线,具备acp认证者优先考虑;

大数据运维工程师任职资格篇五

职责:

1、负责银行各类应用系统的运维标准制定和运维管理等工作;

2、负责银行各类应用系统的运行情况及相关技术的整理、分析和总结等工作;

3、负责银行各类应用系统的应用监控、应用运维体系工具的建设和维护工作;

4、负责银行各类应用系统的自动化脚本编写和测试工作。

招聘要求:

1、全日制一本以及以上学历,理工类专业;

2、具备2年及以上应用系统运维或应用系统开发经验,有银行应用系统运维或开发经验者优先;

3、具备较强的文档编写、英语文档阅读能力;

4、具备良好的沟通表达能力和团队合作精神,具有较强的工作责任心和主动性;

5、至少具备以下二项技能:

(1)熟悉银行应用系统体系架构、应用运维标准化流程;

(2)熟悉aix、linux操作系统相关运维工作,具备熟练的shell脚本编程能力;

(3)熟悉应用软件持续集成和持续发布交付项目的整体流程,熟悉jenkins、nexus等相关devops工具;

(4)熟练使用容器平台相关技术,有容器平台管理工作、应用容器打包的相关经验;

(5)熟练使用golang或者python编程。

大数据运维工程师任职资格篇六

职责:

1.对公司各业务系统进行技术维护;

2.业务平台新建、扩容等工作中部署、调测和对接;

3.业务系统故障和投诉的处理;

4.建设方案、割接方案等技术方案的编写和实施;

5.公司各平台业务所需的信号接收、转码等系统的维护;

6.业务系统的监控和巡检;

7.根据工作需要,能适应夜班及节假日值班工作;

任职要求:

1.全日制本科(统招)及以上学历,计算机、软件、通信工程、网络等相关专业,工作经验不限。

2.熟悉linux操作系统,熟练使用linux基本命令。

3.熟悉一两种常用linux上的开源程序或中间件,如:tomcat、nginx、lvs、redis、zabbix等。

4.了解mysql、oracle等主流数据库,了解计算机网络。

5.了解大数据、云计算、虚拟化、容器化、ai、ci/cd等技术者优先,如:hadoop、docker、kubernetes、python、jenkins等。

6.有良好的逻辑思维,掌握一门主流编程语言者优先,如:java、php、js、python、c++、go等。

7.具备良好的沟通协调能力,文字表达能力和执行力,对其他部门的技术支持工作有服务意识。

8.有较强的学习能力,热爱运维工作,喜欢钻研运维相关技术,能吃苦耐劳

9.对运维工作有高度的安全意识,办事仔细、认真、不浮躁。

大数据运维工程师任职资格篇七

职责:

1. 负责游戏产品的上线、更新和维护;

2. 负责公司产品自动化运维平台的搭建及持续更新;

3. 负责与业务团队进行沟通,提高业务产品的可维护性。

任职资格:

1. 3年以上linux系统运维工作经验,有上线游戏产品运维经验;

2. 精通shell脚本编写,至少熟悉一种编程语言(python/perl);

3. 熟悉mysql、redis、mongodb等数据库操作和维护,具备高并发数据库维护经验;

4. 精通nginx、php、tomcat等开源软件的配置和维护;

5. 熟悉各种公有云服务器以及cdn dns等产品,具备独立搭建自建服务器能力;

6. 具备开发和搭建自动化运维平台经验者优先;

7. 有强烈的责任心,具备较强的沟通协调能力。

大数据运维工程师任职资格篇八

职责:

1、参与项目需求分析, 制定开发计划,承担项目的架构设计和详细设计工作,并承担项目核心模块的开发任务,确保按时完成既定的开发内容;

2、参与软件开发的整体规划及实施,分析并解决软件开发过程中的技术问题,为公司的业务开展提供支持;

3、完成软件系统代码的实现,编写代码注释和开发文档,进行系统的功能定义,程序设计;

4、根据设计文档或需求说明完成代码编写,调试,测试和维护;

5、根据需要不断修改完善软件,负责现有系统的重构、优化、维护等工作;

7、对系统数据库进行日常管理,统计数据库中相关信息;

8、负责网络运行的安全性、可靠性及稳定性;

9、配合项目经理完成相关任务目标。

相关要求:

1、计算机或相关专业大专学历以上;

2、2年以上软件开发经验;

3、具备需求分析和系统设计能力,以及较强的逻辑分析和独立解决问题的能力;

4、熟练使用photoshop、flash、dreamweaver等工具,熟悉asp,java,sql,html等开发语言;

5、具有良好的沟通领悟能力及团队协作能力,有进取心,强烈的责任感和认真细致的工作态度,善于学习,具备良好的团队意识。

大数据运维工程师任职资格篇九

职责:

1、负责项目功能技术支持和功能测试;

2、有1年以上运维、测试工作经验;

3、追踪解决项目相关 bug ;

4、具备良好的表达能力,包括语言及文字表达能,良好的团队合作精神和解决问题的能力;

5、与开发人员、运维人员沟通,找出并能够快速准确定位问题。

职位要求:

1、熟悉基本主机、数据库系统、网络知识 ;

2、至少1年以上的软件运维支持经验,有使用常用测试工具的经验者优先 ;

3、具有linux平台运维经验 ;

4、熟悉sql语言、熟悉基本数据库操作、有oracle经验者优先;

5、能够完成测试案例、测试计划编写;

大数据运维工程师任职资格篇十

1、对服务器进行日常维护,确保各项服务连续正常运行。

2、负责服务器存储网络等基础平台的技术维护和问题处理 ;

3、负责执行大客户服务项目的定制化服务配置和硬件安装等处理工作;

4、了解操作系统安装与配置;

5、具备一定的网络相关故障解决能力;

6、熟悉主流厂商pc服务器硬件安装与配置;

7、windows、linux、vmware等日常管理、维护;

8、负责服务器异常或故障的受理、跟踪、解决以及统计分析;

大数据运维工程师任职资格篇十一

1、大规模以mesos为资源调度平台,承载了上百套应用的大型数据中心操作系统(dcos),负责平台高可用/高并发/可用性管控,有过sre经验优先考虑。

2、负责指导应用上云及平台自身监控运维性质开发,有devops工作心得优先考虑。

岗位要求

1.良好的语言表达和沟通能力,较强的服务意识与团队合作精神

2.有主动推进预定计划/方案实施的意识,愿意主动学习

3.深入理解linux操作系统,能够对主机性能进行分析和优化;

4.熟悉常用的监控软件nagios、zabbix、cadvisor、prometheus中的一种或多种;

5.熟悉常用的虚拟化技术,了解docker常见的使用方法,编排方式;

6.对mysql、redis、zookeeper、tomcat、haproxy等有一定的运维经验;

7.熟练使用shell、python、go中的一种或多种;

大数据运维工程师任职资格篇十二

职责:

1、负责公司idc业务线监控系统的日常维护与管理;

2、负责公司官网、oa、云平台等系统的日常维护与管理;

3、负责研发项目著作权申请文档的编写与申请沟通;

4、负责研发产品的实施与部署;

5、根据部门工作要求完成临时性的配合工作;

任职要求:

1、熟悉linux系统的常用操作

2、熟悉shell或python的编程

3、具有良好的沟通与协调能力

大数据运维工程师任职资格篇十三

职责:

1、负责多云管理平台的自动化部署及运维;

2、负责提供平台相关的技术支持,协助客户故障的分析和排除;

3、负责集群架构、性能、稳定性等优化工作,配合进行开发调试、排查及解决业务故障;

4、负责运维报告及知识库的整理以及相关文档的编写;

5、协助客户设置nat网关、internet 网关、软件负载均衡、终端节点、防火墙等高级网络配置;

6、协助客户设置弹性策略、高可用、反亲和性等主机高级策略;

7、协助客户调研高级云计算服务和配置运营相关策略;

任职要求:

1、统招本科以上学历,5年以上云运维工作经验;

2、熟悉shell、python或ansible,有自动化运维的理念,并且具备一定的脚本能力能够推进自动化运维建设;

3、熟练使用fio、iperf、telnet、tcpdump、nc等运维测试和排错工具;

4、熟悉关系型数据库mysql和健值数据库redis的安装配置,以及任意一款中间件的使用;

5、熟悉linux 安装、配置和命令和windows server 20xx以上操作系统的服务配置。

6、熟悉计算、存储、安全、网络等基本知识;

7、熟练使用公有云、vmware、openstack 或kvm 中至少二款云计算或虚拟化产品;

8、有良好的客户服务意识、良好的沟通能力、团队协作能力;

9、具备aws相关认证优先

大数据运维工程师任职资格篇十四

职责:

1. 客户web端,微信端销售系统及后台管理系统的日常维护,故障排除,用户培训,用户指南制作;

2. 常驻客户现场,及时处理用户提出的各类软件系统问题;

3. 全面负责软件测试的质量管理,并根据测试结果提交相关结论性意见建议;

4. 配合开发团队完成新软件系统的部署、发布工作;

5. 完成部门主管或上级领导交办的其它临时性工作。

职位要求:

1. 本科及以上学历,计算机、通信及相关专业;

2. 有年及以上软件开发或运维工作经验,同时拥有开发和运维工作经验者优先;

3. 有丰富的mysql,sqlserver等数据库运维和支持经验尤佳;

4. 熟知linux操作系统平台,熟悉在该平台进行软件搭建能力;

5. 有其他it运维工作经验者优先。

大数据运维工程师任职资格篇十五

1、日常短彩信质量分析工作,协助短彩信业务质量人工测试、协助自有人员以提升用户感知、加强故障监控能力、消灭安全隐患为目标,提供对短彩信系统业务指标、系统运行效能进行主动发现、隐患整改、持续优化的服务。

2、日常巡检:协助实施系统巡检,协助编写问题报告。

3、投诉处理:协助投诉与故障现象分析,明确投诉原因,提出投诉处理建议。

4、作业计划:协助完成作业计划执行以及完成情况反馈。

5、系统备份与系统资料管理:协助开展系统备份与系统资料整理。

6、日常故障处理:协助数据提取与分析、系统监控,开展人工测试,提供故障处理建议,协助维保厂商及自有人员完成故障处理。

7、紧急故障处理:协助数据提取与分析、系统监控,开展人工测试,协助故障处理,提供故障处理建议,协助8、提供故障分析内容,协助维保厂商及自有人员完成故障处理。

9、话单数据保障:协助进行话单文件的日常维护,协助完成话单缺失的补传工作。

10、协助数据提取与分析、系统监控,开展业务测试。

11、协助开展日常安全扫描等工作,内容主要为:系统安全加固、弱口令、漏洞的自查及修复;信息安全风险的自查及整改;管控平台全面接入及绕行控制;防火墙设备策略梳理;定级备案内容提供;更新应急预案,完成应急演练等。

12、数据配置:进行局数据制作后测试。

13、报表分析:协助提取分析报表,实施分析工作,编写分析报告。

14、数据分析、服务汇报:协助完成系统指标数据提取、整理、问题分析;完成各系统专项服务汇报(故障报告、巡检报告等),以及定期服务总结。

15、协助买方完成其他临时性、阶段性工作任务。

全文阅读已结束,如果需要下载本文请点击

下载此文档
a.付费复制
付费获得该文章复制权限
特价:2.99元 10元
微信扫码支付
b.包月复制
付费后30天内不限量复制
特价:6.66元 10元
微信扫码支付
联系客服