默认
打赏 发表评论 0
想开发IM:买成品怕坑?租第3方怕贵?找开源自已撸?尽量别走弯路了... 找站长给点建议
微信Windows端IM消息数据库的优化实践:查询慢、体积大、文件损坏等
阅读(45652) | 评论(0 收藏3 淘帖1 2
微信扫一扫关注!

本文由微信客户端技术团队工程师“Jon”分享,原题“Windows微信:消息数据库架构演进”,即时通讯网有较多修订。


1、引言


本文分享的是,微信客户端团队基于对微信用户日常使用场景和数据分析,通过分离重要和非重要数据、采用可靠的分库策略等,对微信Windows端IM本地数据库的架构进行的优化和改造,并最终得到一个具备良好实践效果的技术改造方案。

微信Windows端IM消息数据库的优化实践:查询慢、体积大、文件损坏等_cover-opti.png

以下是相关技术文章,有兴趣的读者可以一并阅读:


2、背景说明


微信的Windows客户端自2014年上线以来,用户数稳步增长。随着时间的不断推移,很多用户本地积攒的消息量越来越大。

微信Windows端IM消息数据库的优化实践:查询慢、体积大、文件损坏等_0.png

最初的本地IM数据库设计秉着遵循“简单易用、方便管理”的原则,把用户收到的所有消息都统一存放在用户当前客户端本地的“同一个SQLite数据文件中”。

(作者注:微信不会保存聊天记录,聊天内容只存储在用户手机、电脑等终端设备上。)

3、当前问题


由于初期这套本地数据库设计方案的短板,随着目前微信使用越来越广泛、消息堆积越来越多,从而逐渐暴露出了许多技术问题。

3.1问题1:数据查询慢


随着使用时间的推移,数据也逐渐增多,当数据量越来越庞大:

  • 1)数据库的查询和插入效率会受到影响;
  • 2)即使消息数据库存在索引,索引的查询效率也随之下降。

从文件系统的角度,数据库文件是逐页增长的。因为长时间的使用微信会使得消息量的逐步累积,让数据库体积逐渐增长,也会导致碎片化更严重,这在机械硬盘下,也会进一步影响读写效率。

对用户最直观的影响就是——切换聊天变得很卡,这个问题对于重度用户尤甚,甚至会出现点击聊天就卡顿的情况。

3.2问题2:存储文件大


随着时间的推移,消息量的逐步累积,数据库存储文件的体积也是越来越大,显著占用用户存储空间。

3.3问题3:磁盘文件损坏


磁盘文件意外损坏也有可能导致数据丢失。

因为所有消息都放到一个数据库文件,就类似把所有鸡蛋放在一个篮子。

数据库文件也可能会因为存储坏道、电脑意外断电、sqlite自身bug等原因导致数据库文件发生损坏。如果发生损坏时,有可能导致用户丢失消息数据。即使有DB恢复机制,也无法保证能恢复出所有历史记录。

当这种情况发生时,对用户影响十分大,因为聊天记录可能没了

PS:微信移动端也有类似困扰,有兴趣可以阅读《微信客户端SQLite数据库损坏修复实践》。

4、原因分析


4.1概述


上述数据库存储文件变大和查询变慢的问题,都是由于消息数据的不断增多引起。

但消息数的增长是无法避免的,那么有没有办法控制增长速度,并且控制数据库的大小?

我们从两个方向进行分析:消息情况、日常使用场景

4.2分析1:消息情况


微信里的IM消息可分为三大类:

  • 1)单人聊天消息;
  • 2)群聊消息;
  • 3)以及订阅号/服务号消息(统称为公众号消息)。

按消息的重要性来说:

  • 1)单聊/群聊消息:这是用户的私人消息,被删除或者丢失无法恢复,对用户损失最大;
  • 2)公众号的消息:因为只要关注了公众号,都可以拉取阅读,属于公共消息,所以对用户来说重要性稍低。

按消息的大小来说:

  • 1)基于对测试帐号的消息大小数据分析,我们发现:占总条数比例不高的公众号消息,占用了超过一半的数据库空间;
  • 2)经过对测试帐号消息类型的分析:网页卡片类消息是公众号消息的主要类型,其平均消息体大小是文本消息的几十倍。

4.3分析2:日常应用场景分析


众所周知,我们日常使用微信,都是收发消息,或者浏览最近的消息。对于更早的消息,我们一般很少会主动去浏览。

越早的消息,浏览的概率越低。

所以:在大多数场景下,我们要让最常访问的消息,不受老数据的影响。

5、解决方案


5.1概述


针对前述问题并结合上述分析,我们从以下方面对微信Windows端本地SQLite数据库的架构进行了演进和优化。

涉及的主要优化内容和手段有:

  • 1)分库改造;
  • 2)建立消息索引;
  • 3)消息体积优化;
  • 4)提高数据库健壮性。

下面我们将逐一详细介绍。

5.2分库改造


基于以上分析,首先把公众号消息划分出去,存到单独的一个数据库,跟用户的普通消息隔离,同时也可以大幅减少普通消息数据库的体积。

基于日常使用场景的分析,大部分老数据读取的频率很低,所以应该提高最近一段时间的读写效率

对于上述这种情况,我们采取了以时间和空间动态划分数据库的方案。初始默认值是每个数据库存放半年的消息,超过时间之后新建一个数据库存放。对于大部分使用场景,我们只需要读写最新的数据库就可以满足需求,如果需要浏览更早的消息,可以再打开之前的数据库进行读取。

除了时间维度,我们还考虑了空间维度的划分:如果半年内消息普通消息规模超过阈值,也会新建一个数据库进行存储,让每个数据库大小和数据规模不至于太大,能提升最近一段时间消息的读写效率。

微信Windows端IM消息数据库的优化实践:查询慢、体积大、文件损坏等_1.png

5.3建立消息索引


对于最广泛的使用场景——查看每一个聊天的消息,这种场景需要对每一个聊天会话建立一个索引。

这里的索引方案我们参考了安卓端:即将每一个聊天转换成一个数值型的ID,从而减少每条索引的长度,提高索引的读写效率。(关于微信的移动端SQLite完整数据库结构,可以参考:《微信本地数据库破解版(含iOS、Android),仅供学习研究 [附件下载]

除此之外,我们还对一些经常访问的内容,单独提取成为一个字段,并且增加索引。比如消息的子类型(这个在老数据库中是一个序列化字段),它没有索引,但这个字段经常需要用到,所以单独提出成为一列,并且加上索引,为消息按类型查找提供方便。

5.4消息体积优化


IM中消息显然总是会越来越多的,但如何能够在不影响读写效率的同时,减少/压缩消息数据的体积,也是我们的优化方向。

从上面的数据看,部分消息体积较大,已经超过了数据库每页的大小(Page Size)。

数据库是按页存储数据的,Page Size是数据库一页能够容纳的数据。如果一条数据,一个页放不下,就需要用到溢出页,把多出来放不下的数据放到溢出页中,溢出页可以有多个。

这时候,如果读取这条数据,就需要把溢出页也全部读出来,会增加IO的消耗。「

如果压缩数据,能够把消息体压缩到一个页能放得下,减少溢出页的使用,是可以增加IO性能的

SQLite数据库溢出页结构:
微信Windows端IM消息数据库的优化实践:查询慢、体积大、文件损坏等_2.png
(上图引用自书籍《The Definitive Guide to SQLite》第308页)

PS:The Definitive Guide to SQLite这本书的电子版我也给你找到了,请从下面附件处下载:
The Definitive Guide to SQLite (2nd edition, 2010)-52im.net.pdf.zip (3.61 MB , 下载次数: 10 , 售价: 1 金币)
微信Windows端IM消息数据库的优化实践:查询慢、体积大、文件损坏等_3-2.jpg

但是压缩需要占用CPU资源,这里选择一种能够平衡性能和压缩率的算法是关键。

经过对比压缩算法的Benchmark,并且对消息体压缩性进行实测,最终选择了一个高性能压缩算法:lz4

经过对测试帐号的数据分析,不同类型的消息体大小差异较大。

一般来说:文本消息的长度不会特别大,但是网页卡片类型的消息,体积会较大。由于不同的消息长度,获得的压缩率不一样,太短的文本长度,压缩起来并没有意义。

所以经过消息体长度、压缩、,压缩性能的分析,最终确定对网页卡片等进行压缩,在较低性能消耗的前提下,综合压缩率可达到40%,减少了IO次数 。

微信Windows端IM消息数据库的优化实践:查询慢、体积大、文件损坏等_3.png

5.5提高健壮性


如果数据库文件由于外部原因发生损坏,则会对体验造成较大影响。降低损坏率和减少损坏带来的数据损失,也是我们改进的方向。

按照时间维度划分数据库之后,相当于把消息按时间分散存储。最新的数据库负责读写最近的消息,其余的数据库只需要根据需求支持浏览查看消息。

对于老数据库而言:可以做到按需加载,从而减少了对数据库的读写,也减少了这些数据库损坏的几率。一旦有数据库出现损坏,即使无法恢复,也不会所有消息全部丢失,只会丢失该数据库对应时间段的消息,这也可以减少部分数据库损坏带来的损失。

在早期使用的单数据库架构中,由于数据会越攒越多,数据库体积会持续变大,很难去做备份。分库之后,每个数据库体积变小,因而数据库备份变得更为可行。因为最新的数据库存在频繁的消息读写,发生损坏的概率远高于老数据库,所以这里对最新的一个数据库做定期的备份。

默认配置下,我们每间隔一段时间会对最新的数据库进行一次备份,该备份是最新的一个数据库的完整拷贝。若最新的数据库在读写时发生损坏,会先尝试从备份数据恢复。若恢复成功,则最多丢失从备份到恢复这段时间的数据,进一步降低损坏造成的损失。

6、优化对比


经过对比,对于一个在测试帐号中原始的消息数据库,压缩后大小可以减少接近一半同时溢出页数和需要使用溢出页的记录数减少也超过一半

微信Windows端IM消息数据库的优化实践:查询慢、体积大、文件损坏等_4.png

对于读写性能,对比压缩前,压缩后的读取和解压缩性能比之前有接近10%的提升

微信Windows端IM消息数据库的优化实践:查询慢、体积大、文件损坏等_5.png

7、未来展望


后续我们微信客户端团队将继续研究数据库修复相关的实践,持续关注数据库相关的性能数据,提升可靠性,打造更好的用户体验!

附录:更多大厂IM文章汇总


[1] 微信团队原创技术文章:
微信朋友圈千亿访问量背后的技术挑战和实践总结
IM全文检索技术专题(二):微信移动端的全文检索多音字问题解决方案
微信团队分享:iOS版微信的高性能通用key-value组件技术实践
微信团队分享:iOS版微信是如何防止特殊字符导致的炸群、APP崩溃的?
微信团队原创分享:iOS版微信的内存监控系统技术实践
iOS后台唤醒实战:微信收款到账语音提醒技术总结
微信团队分享:视频图像的超分辨率技术原理和应用场景
微信团队分享:微信每日亿次实时音视频聊天背后的技术解密
微信团队分享:微信Android版小视频编码填过的那些坑
IM全文检索技术专题(一):微信移动端的全文检索优化之路
企业微信客户端中组织架构数据的同步更新方案优化实战
微信团队披露:微信界面卡死超级bug“15。。。。”的来龙去脉
月活8.89亿的超级IM微信是如何进行Android端兼容测试的
一篇文章get微信开源移动端数据库组件WCDB的一切!
微信客户端团队负责人技术访谈:如何着手客户端性能监控和优化
微信后台基于时间序的海量数据冷热分级架构设计实践
微信团队原创分享:Android版微信的臃肿之困与模块化实践之路
微信后台团队:微信后台异步消息队列的优化升级实践分享
微信团队原创分享:微信客户端SQLite数据库损坏修复实践
微信Mars:微信内部正在使用的网络层封装库,即将开源
如约而至:微信自用的移动端IM网络层跨平台组件库Mars已正式开源
开源libco库:单机千万连接、支撑微信8亿用户的后台框架基石 [源码下载]
微信新一代通信安全解决方案:基于TLS1.3的MMTLS详解
微信团队原创分享:Android版微信后台保活实战分享(进程保活篇)
微信团队原创分享:Android版微信后台保活实战分享(网络保活篇)
Android版微信从300KB到30MB的技术演进(PPT讲稿) [附件下载]
微信团队原创分享:Android版微信从300KB到30MB的技术演进
微信技术总监谈架构:微信之道——大道至简(演讲全文)
微信技术总监谈架构:微信之道——大道至简(PPT讲稿) [附件下载]
如何解读《微信技术总监谈架构:微信之道——大道至简》
微信海量用户背后的后台系统存储架构(视频+PPT) [附件下载]
微信异步化改造实践:8亿月活、单机千万连接背后的后台解决方案
微信朋友圈海量技术之道PPT [附件下载]
微信对网络影响的技术试验及分析(论文全文)
一份微信后台技术架构的总结性笔记
架构之道:3个程序员成就微信朋友圈日均10亿发布量[有视频]
快速裂变:见证微信强大后台架构从0到1的演进历程(一)
快速裂变:见证微信强大后台架构从0到1的演进历程(二)
微信团队原创分享:Android内存泄漏监控和优化技巧总结
全面总结iOS版微信升级iOS9遇到的各种“坑”
微信团队原创资源混淆工具:让你的APK立减1M
微信团队原创Android资源混淆工具:AndResGuard [有源码]
Android版微信安装包“减肥”实战记录
iOS版微信安装包“减肥”实战记录
移动端IM实践:iOS版微信界面卡顿监测方案
微信“红包照片”背后的技术难题
移动端IM实践:iOS版微信小视频功能技术方案实录
移动端IM实践:Android版微信如何大幅提升交互性能(一)
移动端IM实践:Android版微信如何大幅提升交互性能(二)
移动端IM实践:实现Android版微信的智能心跳机制
移动端IM实践:iOS版微信的多设备字体适配方案探讨
IPv6技术详解:基本概念、应用现状、技术实践(上篇)
IPv6技术详解:基本概念、应用现状、技术实践(下篇)
微信多媒体团队访谈:音视频开发的学习、微信的音视频技术和挑战等
腾讯技术分享:微信小程序音视频技术背后的故事
微信多媒体团队梁俊斌访谈:聊一聊我所了解的音视频技术
腾讯技术分享:微信小程序音视频与WebRTC互通的技术思路和实践
微信技术分享:微信的海量IM聊天消息序列号生成实践(算法原理篇)
微信技术分享:微信的海量IM聊天消息序列号生成实践(容灾方案篇)
微信团队分享:Kotlin渐被认可,Android版微信的技术尝鲜之旅
社交软件红包技术解密(二):解密微信摇一摇红包从0到1的技术演进
社交软件红包技术解密(三):微信摇一摇红包雨背后的技术细节
社交软件红包技术解密(四):微信红包系统是如何应对高并发的
社交软件红包技术解密(五):微信红包系统是如何实现高可用性的
社交软件红包技术解密(六):微信红包系统的存储层架构演进实践
社交软件红包技术解密(十一):解密微信红包随机算法(含代码实现)
微信团队分享:极致优化,iOS版微信编译速度3倍提升的实践总结
IM“扫一扫”功能很好做?看看微信“扫一扫识物”的完整技术实现
微信团队分享:微信支付代码重构带来的移动端软件架构上的思考
IM开发宝典:史上最全,微信各种功能参数和逻辑规则资料汇总
微信团队分享:微信直播聊天室单房间1500万在线的消息架构演进之路
企业微信的IM架构设计揭秘:消息模型、万人群、已读回执、消息撤回等
IM全文检索技术专题(四):微信iOS端的最新全文检索技术优化实践
微信团队分享:微信后台在海量并发请求下是如何做到不崩溃的
微信Windows端IM消息数据库的优化实践:查询慢、体积大、文件损坏等
>> 更多同类文章 ……

[2] 微信背后的技术故事:
技术往事:微信估值已超5千亿,雷军曾有机会收编张小龙及其Foxmail
腾讯开发微信花了多少钱?技术难度真这么大?难在哪?
开发往事:深度讲述2010到2015,微信一路风雨的背后
开发往事:微信千年不变的那张闪屏图片的由来
开发往事:记录微信3.0版背后的故事(距微信1.0发布9个月时)
一个微信实习生自述:我眼中的微信开发团队
微信七年回顾:历经多少质疑和差评,才配拥有今天的强大
前创始团队成员分享:盘点微信的前世今生——微信成功的必然和偶然
即时通讯创业必读:解密微信的产品定位、创新思维、设计法则等
[技术脑洞] 如果把14亿中国人拉到一个微信群里技术上能实现吗?
那些年微信开发过的鸡肋功能,及其带给我们的思考
读懂微信:从1.0到7.0版本,一个主流IM社交工具的进化史
专访马化腾:首次开谈个人经历、管理心得、技术创新、微信的诞生等
一文读懂微信之父张小龙:失败天才、颠覆者、独裁者、人性操控师
>> 更多同类文章 ……

[3] 阿里巴巴的技术分享:
阿里钉钉技术分享:企业级IM王者——钉钉在后端架构上的过人之处
现代IM系统中聊天消息的同步和存储方案探讨
阿里技术分享:深度揭秘阿里数据库技术方案的10年变迁史
阿里技术分享:阿里自研金融级数据库OceanBase的艰辛成长之路
来自阿里OpenIM:打造安全可靠即时通讯服务的技术实践分享
钉钉——基于IM技术的新一代企业OA平台的技术挑战(视频+PPT) [附件下载]
阿里技术结晶:《阿里巴巴Java开发手册(规约)-华山版》[附件下载]
重磅发布:《阿里巴巴Android开发手册(规约)》[附件下载]
作者谈《阿里巴巴Java开发手册(规约)》背后的故事
《阿里巴巴Android开发手册(规约)》背后的故事
干了这碗鸡汤:从理发店小弟到阿里P10技术大牛
揭秘阿里、腾讯、华为、百度的职级和薪酬体系
淘宝技术分享:手淘亿级移动端接入层网关的技术演进之路
难得干货,揭秘支付宝的2维码扫码技术优化实践之路
淘宝直播技术干货:高清、低延时的实时视频直播技术解密
阿里技术分享:电商IM消息平台,在群聊、直播场景下的技术实践
阿里技术分享:闲鱼IM基于Flutter的移动端跨端改造实践
阿里IM技术分享(三):闲鱼亿级IM消息系统的架构演进之路
阿里IM技术分享(四):闲鱼亿级IM消息系统的可靠投递优化实践
阿里IM技术分享(五):闲鱼亿级IM消息系统的及时性优化实践
阿里IM技术分享(六):闲鱼亿级IM消息系统的离线推送到达率优化
阿里IM技术分享(七):闲鱼IM的在线、离线聊天数据同步机制优化实践
阿里IM技术分享(八):深度解密钉钉即时消息服务DTIM的技术设计

即时通讯网 - 即时通讯开发者社区! 来源: - 即时通讯开发者社区!

上一篇:同一个账号,手机端和web端同时在线时,只有一个端能收到消息下一篇:IM跨平台技术学习(二):Electron初体验(快速开始、跨进程通信、打包、踩坑等)

本帖已收录至以下技术专辑

推荐方案
打赏楼主 ×
使用微信打赏! 使用支付宝打赏!

返回顶部