求职意向
爬虫/开发 四川成都 薪资面议 随时到岗
教育背景
2020.x -2020x 锤子简历大学 材料成型及控制工程(学士学位)
期间多次获得院级奖学金 2012-2013年度“陈毅奖学金”
共青团委颁发 “优秀社会实践个人”
工作经验
2020.x -2020x 锤子简历信息技术有限公司 后端/数据
1. 负责公司app后端数据抓取,开发和运维工作
2. 负责对基于huobi,bitmex, okex等交易所api接口的软件开发,包括行情软件,自动交易软件
3. 负责公司量化管理网站数据中心的开发和维护
2020.x -2020x 重庆平伟科技集团 技术部
1. 负责完成指定网站的数据抓取程序的开发
2. 不同网站数据采集的原理与技术文档整理
3. 数据采集程序的日常维护与升级
4. 一些后台软件的开发
项目经验
2020.x -2020x 量化系统后台数据中心和下单平台 后端/数据/运维
使用工具:pycharm + linux + django+websocket+restful
项目描述:
1、 开发目的:为公司量化组提供数据支撑和操作平台
2、 主要功能:
a) 数据中心:主要是通过websocket接入huobi, bitmex, okex这三个主流交易所, 获取现货future和期货spot的订单历史数据和实时数据。并且通过保存的实时价格计算不同类型的K线,数据存入redis和mysql,其每个交易所每分钟mysql数据在1M左右;生成的K线用于计算sar值存档
b) 管理平台:主要是对合约和现货进行交易。
i. 录入不同交易所的不同账号,admin账户对不同交易员的账号分配,账户分组等;
ii. 后台持续运行不同账号对交易所的数据轮询
iii. 登录平台后,各个交易员有不同的账号对应关系,可以实现获取每个账户下的持仓信息,委托列表,成交列表和撤单列表等
iv. 实现下单和批量下单,撤单和批量撤单等功能,交易所订单的深度数据监控等
3、 数据库:redis,mysql
4 、数据来源:通过对各大交易所接口获取的数据进行整理分析得来
5、 项目部署:nginx+uwsgi+django
2020.x -2020x 数字币行情软件开发维护/spot 后台/数据/运维
项目描述:
1、 开发目的:公司是做区块链相关的的,该软件主要是想为用户提供行情获取渠道,吸引流量的同时,公司也想通过这个app融资。
2、 主要功能:
a) 首页:主流币种数据,涨跌分布,爆仓单,地址监控,智能盯盘
b) 快讯页:区块链数字货币相关动态
c) 行情:包括每个币对的24H最高价,最低价,总额,成交量,市值等,大约收录了1000多个币种的历史和实时信息(trade和ticker),订单深度统计等;还包括币种在每个交易所的占比,现货的全球行情;24h资金变动,主力流入流出等
d) 趋势:包括涨跌幅榜,币种成交榜,交易所榜,净流入榜等按照相应规则排列的榜单
e) 个人中心:包括个人短信验证注册登录,虚拟资产入盘模拟,价格实时预警,行情自定义等等
3、 数据库:redis实时数据,mysql个人中心等
4 、数据来源:对各大交易所官方网站进行分析和汇总得来
5、 项目部署:nginx+uwsgi+django
2020.x -2020x QR库存管理系统 后台/数据
使用工具:pycharm + linux + django
开发环境:python,linux ,mysql, scrapy,django
项目描述: 因公司产品出库和入库较为频繁,基于Django框架而开发的一款私有库存管理系统,团队项目,有用户注册登录,权限验证,入库管理,库存管理,出库管理等模块,主要功能是实现商品入库和库存管理,用户的管理等。
主要职责: 1.其中,参与用户管理模块,入库管理模块 2.主要工作是负责测试用数据的抓取,以方便软件优化,如商品类别数据,测试用户数据等
2020.x -2020x 房天下,链家,购房网数据采集 数据
所属公司: 重庆平伟科技(集团)有限公司
项目描述:
开发环境:python + linux + mongodb + scrapy
项目描述: 由于集团在房地产方面的业务也有涉及,需要对户型,楼盘动态,点评和区域分布等进行统计,故选取了这几个房地产网站进行爬取,定期维护。主要内容:
1.需求分析:分析网站,确定爬取内容
2. scrapy多个爬虫分别爬取每个网站的内容并存入数据库
3.主要问题点:常规scrapy爬取方法,做了限速和定时更换代理
2020.x -2020x 汽车之家车型数据采集 数据
所属公司: 重庆平伟科技(集团)有限公司
项目描述:
开发环境:python + linux + mongodb + scrapy
项目描述: 由于公司想在项目上做技术改进,需要全面准确的车型数据,而汽车之家的车辆数据一直都做的比较好,故对汽车之家车型数据进行爬取,定期维护。
具体描述: 1.需求分析:分析网站,确定爬取内容 2. scrapy爬取汽车之家所有车型数据,口碑数据,二手车数据 3.主要问题点及解决思路: 1) ip限制——采用代理池,调用flask接口完成 2) 前端css字体替换——分析js,找到字体接口,下载字体文件,构造字体映射解析爬取的内容
自我评价
工科专业背景,工作细致,严谨认真;
有较强的沟通技巧及组织协调能力;
对自己需要的技术,能够持之以恒地学习;
较强的责任感,
能经常总结失败教训;
内容来源说明:本文章来自网络收集,如侵犯了你的权益,请联系QQ:2772182309进行删除。
https://www.100chui.com/article/103787.html