锤子简历品牌推广师
大数据简历范文
作者:锤子简历 2021/04/08 11:40:00
阅读 269

求职意向

大数据 北京 薪资面议 随时到岗

教育背景

2020.x -2020x 锤子简历大学 软件工程

曾任职学生会宣传部部长

工作经验

2020.x -2020x  

项目经验

2020.x -2020x 蜂鸟网商城 后台开发

 该项目是基于B2C模式的电子商务网站,经营范围包括数码相机、镜头、胶片机、摄影必备、摄像机等。 本项目主要包括后台管理系统、前台交易系统、用户认证系统、搜索系统、支付系统及其周边系统采用SOA面向服务的分布式架构方式进行开发,并采用分布式和集群的方式将业务系统进行部署。

责任描述: 1、商品发布模块、购物车模块、用户模块、商品秒杀; 2、商品发布模块包括:商品分类的加载、图片上传; 3、购物车模块包括:添加购物车功能、迷你购物车功能、操作购物车功能; 4、用户模块包括:用户的注册登录、用户账户验证; 5、秒杀模块包块:解决超卖和少卖的问题; 
技术描述: 1、使用Cookie+Session+DB实现购物车,根据用户的登录状态分为6种情况;2、Session作为登录状态下的购物车缓存,用户登录的时候,还要分情况进行Cookie和DB购物车的合并; 3、用Zookeeper和Dubbo搭建服务接口,实现不同应用模块之间的相互调用; 4、Redis借助LUA脚本解决秒杀的超卖问题; 5、前后台数据的传输与存储采用JSON格式;

2020.x -2020x 用户日志采集分析平台 后台开发

项目描述: 数据统计分析平台针对用户不同行为记录用户一个Session中所有Action的日志。以这些日志为基础,通过大数据技术分析计算,平台对网站的各种用户行为(访问行为、购物行为、广告点击行为等)进行分析。从而帮助决策者更好地制定公司发展策略,最终达到用大数据技术来帮助提升公司的业绩、营业额以及市场占有率的目标。 项目主要使用了Spark Core,Spark Sql,Spark Streaming技术和Flume、Kafka、MapReduce、Hive、Zookeeper框架实现了用户访问 Session 统计的需求。 

责任描述: 1、参与整体框架的设计与搭建,框架间的兼容性调整; 2、调优Flume数据采集过程,保证数据的完整性和可靠性; 3、编写MapReduce,对离线数据进行清洗; 4、编写Shell脚本,将Hdfs数据导入Hive表中; 5、利用SparkCore和SparkSql进行离线分析; 6、利用SparkStreaming和Kafka低级消费者API进行实时需求分析; 7、Spark性能调优; 
技术描述: 1、 Flume数据采集的设计,集群的搭建; 2、 KafkaSink可以通过自定义拦截器来设置某个Event的Header中的Key或者Topic属性; 3、 借助SparkStreaming编写Kafka低级消费者API,利用Spark的CheckPoint切断血缘关系,并且借助Zookeeper框架实现偏移量的维护,进行实施需求的处理; 4、 借助自定义累加器分析得到Session 各范围访问步长、访问时长占比统计; 5、 借助广播变量来保存计算的到的随机抽取索引表来对Session进行抽取 ; 6、利用SparkSql中的开窗函数统计各区域 Top3 商品; 7、借助updateStateByKey算子统计实时广告点击量; 8、通过reduceByKeyAndWindow算子统计最近一小时广告实时点击量;

实习经验

2020.x -2020x 锤子简历信息技术有限公司 互联网电商

2017/08—至今:大数据相关开发

自我评价

为人稳重、大方,认真对待工作,开朗自信,待人真诚,有优良的团队精神,强烈的责任心,良好的沟通协调能力。决策能力、计划能力、谈判能力强,具备良好的敬业精神和职业道德操守,有很强的感召力和凝聚力。

内容来源说明:本文章来自网络收集,如侵犯了你的权益,请联系QQ:2772182309进行删除。