环球观点:Mysql - 多张千万级统计数据实践笔记(PHP Script)
概述
项目场景是给做用户年报,项目属于活动类型,需要维持1个月左右,需要统计用户操作的一些数据,主要是统计方面的,当时注册用户大概280w左右,书单、评论、打赏还可以,之前的数据做过分表,只有阅读记录log大概将近1亿条,是个大难点。
技术方案
1.全量查询,减少链接断开次数,使用PHP处理,性能更高
一次性取出1000条数据,还是一次处理100? 答案是取1000条,如果服务器的内存允许,一次可以取更多条,应该尽量避免mysql进程中连接和断开的消耗,性能提高的非常明显,17w测试数据,从8条/秒 提升到 140条/秒!
把数据量偏小的取出,做map映射,以提高最大的性能,再使用的地方用key拼接使用。
(资料图片)
Array( [67] => 还阳 [69] => 做媒 [70] => 共业招感 [71] => 流心彩虹糖 [72] => 雪中燃灯 [73] => 王座 [74] => 不言而喻 [75] => 王以君倾 [76] => 踏雪寻泥 [77] => 有匪君子)
2. 获取Mysql中最小的数据,主要统计用户行为,所以对用户分组
SELECT `user_id` ,`novel_id` ,`chapter_id` ,MIN(DATETIME) AS `datetime`FROM `wm_novel_reward`WHERE `user_id` BETWEEN 1AND 1006GROUP BY user_id`
出于对安全的考虑,当mysql是字符串的时候,需要对字符串进行转义,保证sql语句的正常操作。
#面向对象风格mysqli::real_escape_string ( string $escapestr ) : string#过程化风格mysqli_real_escape_string ( mysqli $link , string $escapestr ) : string
3.UNION ALL 处理分表业务
对于操作频次较高的业务场景中,分表的情况比较多,使用UNION ALL进行优化处理。
$commentMostSqlArr = [];for ($i = 0; $i < 128; $i ++) { $table = "cp_comment_msg_uid_".$i; $commentMostSqlArr[] = "SELECT `uid`,`nid` ,`module_name` ,`aid` , `author_name` ,count(module_id) AS count_comment_number FROM {$table} Where `uid` BETWEEN {$minUid} AND {$maxUid} AND `gift_id` = 0 AND `create_time` > {$total_start_time} AND `create_time` <= {$total_end_time} Group by nid, uid ";}$commentMostSql = "SELECT * FROM (" . implode(" UNION ALL ", $commentMostSqlArr) . ") t";
4.避免出现重复数据
1.数据重复有两个方面,一个是PHP数组数据的重复,一个是Insert
语句重复,这样解决的:
PHP数据重复使用array_unique( $array )
,注意键名保留不变,array_unique() 先将值作为字符串排序,然后对每个值只保留第一个遇到的键名,接着忽略所有后面的键名。这并不意味着在未排序的 array 中同一个值的第一个出现的键名会被保留。
2.mysql层面使用sql语句去重,使用 INSERT IGNORE INTO
去重:
INSERT IGNORE INTO 与 INSERT INTO 的区别就是 INSERT IGNORE INTO 会忽略数据库中已经存在的数据,如果数据库没有数据,就插入新的数据,如果有数据的话就跳过这条数据。这样就可以保留数据库中已经存在数据,达到在间隙中插入数据的目的。
以下实例使用了 INSERT IGNORE INTO,执行后不会出错,也不会向数据表中插入重复数据,而 REPLACE INTO 如果存在 primary 或 unique相同的记录,则先删除掉。再插入新记录,再性能上会慢一些。
INSERT IGNORE INTO person_tbl (last_name, first_name) VALUES( "Jay", "Thomas");
5.insert批量添加操作
INSERT INTO
可以拼接一次插入数据库,比单条插入的性能要快很多,尤其是多条的时候,也有一个小缺点,当其中一个字段有问题时整条语句一起失败。
INSERT INTO `annual_report_2020`(`user_id` ,`user_regtime` ,)VALUES ( 2 ,1500341346 ) , ( 5 ,1502195321 ) , ( 6 ,1502242604 )
6.系统配置参数上的优化
1.memory_limit设置脚本内存
memory_limit
的值是越大越好么?当然不是,memory_limit
主要是为了防止程序 bug, 或者死循环占用大量的内存,导致系统宕机。在引入大量三方插件,或者代码时,进行内存限制就非常有必要了。
memory_limit
会使每个 PHP process 都占用固定的内存?memory_limit 只是限制了每个 PHP进程的内存占用上限,而不是为每个进程分配了固定的内存。所以,并不会因为 memory_limit 设置越大,导致并发数出现降低。
2.set_time_limit设置脚本执行时间
在php中set_time_limit函数是用来限制页面执行时间的,如我想把一个php页面的执行时间定义为5秒
就可以set_time_limit(5)了,规定从该句运行时起程序必须在指定秒数内行结束,0代表不限制。
set_time_limit(0);ini_set("memory_limit", "1024M");
7.关于内存的说明
很多时候我们都在说内存,其实内存的概念很笼统,内存分为CPU上的缓存(catch)和内存条上的内存(Memory),平时说的服务器8G内存指的是内存条上的内存。Cpu已经从Lmp总线型,升级成NUMP的方式,Nginx就是利用NUMP很好的例子。
其实有一个问题特别迷惑,Mysql数据库里的数据就是以特殊结构存储(B-tree)的文件,Redis中的数据也是用(list、hash)结构存储的数据,存储上没有什么太大的不同,只是有快慢的区别。
而高性能就是尽最大的程度上利用Cpu和内存,提高吞吐量,词很贴切。
至此
后来在正式环境执行的时候,我们还是遇到了别的问题,等我有时间再整理,不要打断这一篇博客主题,我们下一篇见,谢谢您的阅读。
相关新闻
- 环球观点:Mysql - 多张千万级统计数据实践笔记(PHP Script)
- 丑小鸭/经典漫画英语
- 简单去除黑眼圈的最好方法_简单去除黑眼圈的方法 天天速看料
- 百元差价因赠品只退1元?网购平台价格保护限制多 退差价为何这么难?
- 【聚看点】七微
- 山外山:2022年净利同比增200.29%_热资讯
- 环球观焦点:775平台最强cpu吃鸡-775平台最强cpu
- 陈开心-今日热讯
- 环球快播:传奇客户端十周年版下载在c盘怎么办_传奇十周年完整版客户端下载
- 海域使用金
- 焦点!天国的阶梯国语中文版2_天国的阶梯国语中文版
- 全球即时看!玻璃胶多久凝固能用_玻璃胶多久凝固
- 天天热门:中国职业教育课程改革国家规划新教材
- 教师职业道德誓词_教师职业道德誓言 世界头条
- 全球热消息:屠光绍:推动可持续金融发展需处理好五大关系 应关注绿色金融中“漂绿”等现象
- 地下城与冒险-当前热闻
- 【独家】江苏宁马城际铁路南京段正式开启区间盾构施工
- 精密温度计_关于精密温度计介绍
- 最新快讯!杀寇决 电视剧
- 观战台:曼联冲击联赛杯冠军 马德里德比演激情大戏_热讯
- 乐东黎族自治县科技工业信息化局_短讯
- 当前热文:杨璟春_关于杨璟春简述
- 被蚊子咬之后起水泡是怎么回事_被蚊子咬后起水泡怎么办 焦点精选
- 【安全小贴士】这篇防诈骗攻略请收下!