锤子简历品牌推广师
爬虫/开发个人简历模板范文
作者:锤子简历 2022/01/24 13:30:00
阅读 177

求职意向

爬虫/开发 四川成都 薪资面议 随时到岗

教育背景

2020.x -2020x 锤子简历大学 材料成型及控制工程(学士学位)

期间多次获得院级奖学金 2012-2013年度“陈毅奖学金” 

共青团委颁发 “优秀社会实践个人”

工作经验

2020.x -2020x 锤子简历信息技术有限公司 后端/数据

1. 负责公司app后端数据抓取,开发和运维工作

 2. 负责对基于huobi,bitmex, okex等交易所api接口的软件开发,包括行情软件,自动交易软件 
 3. 负责公司量化管理网站数据中心的开发和维护

2020.x -2020x 重庆平伟科技集团 技术部

1. 负责完成指定网站的数据抓取程序的开发

 2. 不同网站数据采集的原理与技术文档整理 
3. 数据采集程序的日常维护与升级 
 4. 一些后台软件的开发 

项目经验

2020.x -2020x 量化系统后台数据中心和下单平台 后端/数据/运维

使用工具:pycharm + linux + django+websocket+restful 

项目描述: 
1、 开发目的:为公司量化组提供数据支撑和操作平台 
2、 主要功能: 
    a) 数据中心:主要是通过websocket接入huobi, bitmex, okex这三个主流交易所, 获取现货future和期货spot的订单历史数据和实时数据。并且通过保存的实时价格计算不同类型的K线,数据存入redis和mysql,其每个交易所每分钟mysql数据在1M左右;生成的K线用于计算sar值存档 
    b) 管理平台:主要是对合约和现货进行交易。
         i. 录入不同交易所的不同账号,admin账户对不同交易员的账号分配,账户分组等;
         ii. 后台持续运行不同账号对交易所的数据轮询
         iii. 登录平台后,各个交易员有不同的账号对应关系,可以实现获取每个账户下的持仓信息,委托列表,成交列表和撤单列表等
         iv. 实现下单和批量下单,撤单和批量撤单等功能,交易所订单的深度数据监控等 


3、 数据库:redis,mysql 
4 、数据来源:通过对各大交易所接口获取的数据进行整理分析得来
5、 项目部署:nginx+uwsgi+django

2020.x -2020x 数字币行情软件开发维护/spot 后台/数据/运维

项目描述: 

 1、 开发目的:公司是做区块链相关的的,该软件主要是想为用户提供行情获取渠道,吸引流量的同时,公司也想通过这个app融资。 
 2、 主要功能: 
     a) 首页:主流币种数据,涨跌分布,爆仓单,地址监控,智能盯盘 
     b) 快讯页:区块链数字货币相关动态 
     c) 行情:包括每个币对的24H最高价,最低价,总额,成交量,市值等,大约收录了1000多个币种的历史和实时信息(trade和ticker),订单深度统计等;还包括币种在每个交易所的占比,现货的全球行情;24h资金变动,主力流入流出等 
     d) 趋势:包括涨跌幅榜,币种成交榜,交易所榜,净流入榜等按照相应规则排列的榜单 
     e) 个人中心:包括个人短信验证注册登录,虚拟资产入盘模拟,价格实时预警,行情自定义等等 
 3、 数据库:redis实时数据,mysql个人中心等  
4 、数据来源:对各大交易所官方网站进行分析和汇总得来 
5、 项目部署:nginx+uwsgi+django

2020.x -2020x QR库存管理系统 后台/数据

使用工具:pycharm + linux + django 

 开发环境:python,linux ,mysql, scrapy,django 
 项目描述: 因公司产品出库和入库较为频繁,基于Django框架而开发的一款私有库存管理系统,团队项目,有用户注册登录,权限验证,入库管理,库存管理,出库管理等模块,主要功能是实现商品入库和库存管理,用户的管理等。 
 主要职责: 1.其中,参与用户管理模块,入库管理模块 2.主要工作是负责测试用数据的抓取,以方便软件优化,如商品类别数据,测试用户数据等




2020.x -2020x 房天下,链家,购房网数据采集 数据

所属公司: 重庆平伟科技(集团)有限公司 

项目描述:
    开发环境:python + linux + mongodb + scrapy 
    项目描述: 由于集团在房地产方面的业务也有涉及,需要对户型,楼盘动态,点评和区域分布等进行统计,故选取了这几个房地产网站进行爬取,定期维护。主要内容: 1.需求分析:分析网站,确定爬取内容  2. scrapy多个爬虫分别爬取每个网站的内容并存入数据库  3.主要问题点:常规scrapy爬取方法,做了限速和定时更换代理

2020.x -2020x 汽车之家车型数据采集 数据

所属公司: 重庆平伟科技(集团)有限公司 

项目描述: 
    开发环境:python + linux + mongodb + scrapy 
    项目描述: 由于公司想在项目上做技术改进,需要全面准确的车型数据,而汽车之家的车辆数据一直都做的比较好,故对汽车之家车型数据进行爬取,定期维护。 
    具体描述: 1.需求分析:分析网站,确定爬取内容 2. scrapy爬取汽车之家所有车型数据,口碑数据,二手车数据 3.主要问题点及解决思路: 1) ip限制——采用代理池,调用flask接口完成 2) 前端css字体替换——分析js,找到字体接口,下载字体文件,构造字体映射解析爬取的内容

自我评价

工科专业背景,工作细致,严谨认真; 

有较强的沟通技巧及组织协调能力;
对自己需要的技术,能够持之以恒地学习; 
较强的责任感, 能经常总结失败教训;

内容来源说明:本文章来自网络收集,如侵犯了你的权益,请联系QQ:2772182309进行删除。