{
    "componentChunkName": "component---src-templates-case-detail-tsx",
    "path": "/case/user-case-zhihu",
    "result": {"pageContext":{"caseDetail":{"id":"Customer-cases_41","title":"TiDB x 知乎 | TiDB 在知乎万亿量级业务数据下的实践","description":"为解决“已读服务”每月新增海量数据给系统带来的挑战，知乎选择了对 MySQL 高度兼容的 TiDB 作为替代方案，只进行少量代码修改即完成平滑迁移，水平弹性扩展也大大提升了知乎已读服务吞吐量。","customUrl":"user-case-zhihu","industry":"生活服务","scene":"规模 OLTP","banner":{"alt":"顶部配图","media":{"url":"https://img1.www.pingcap.com/prod/img_case_banner_2x_c47b1fd7a9.jpg"}},"body":"## 业务挑战\n\n知乎首页是解决流量分发的一个关键入口，知乎通过个性化首页推荐的方式在海量的信息中高效分发用户感兴趣的优质内容。为了避免给用户推荐曾经看过的重复内容，「已读服务」会将所有知乎站上用户深入阅读或快速掠过的内容记录下来长期保存，并将这些数据应用于首页推荐信息流和个性化推送的已读过滤。\n\n当用户打开知乎进入推荐页时，系统会先向首页服务发起请求拉取“用户感兴趣的新内容”。首页根据用户画像，去多个召回队列召回新的候选内容，这些召回的新内容中可能有部分是用户曾经看过的，所以在分发给用户前，首页会先将这些内容发给已读服务过滤，然后做进一步加工并最终返回给客户端。\n\n在整个过程中，已读服务业务具有以下主要特点：\n1. 系统可用性要求非常高。个性化首页和个性化推荐是知乎最重要的流量分发渠道；\n2. 数据写入量非常大。峰值每秒写入 40K+ 行记录，日新增记录近 30 亿条；\n3. 历史数据长期保存。知乎按照产品设计数据需要保存三年，产品迭代至今，已经保存了约 13000 亿条历史记录。按照每月近 1000 亿条记录的增长速度计算，预计两年后将膨胀到 30000 亿的数据规模；\n4. 查询吞吐高。用户在线上每次刷新首页，至少要查一次，并且因为有多个召回源和并发的存在，查询吞吐量可能还会放大。峰值时间首页每秒大约产生 30000 次独立的已读查询，每次查询平均要查 400 个文档，长尾部分大概 1000 个文档。也就是说，整个系统峰值平均每秒处理 1200 万份文档的已读查询；\n5. 响应时间敏感。在这样一个吞吐量级下，响应时间要求比较严格，要求整个查询响应时间（端到端超时）为 90ms，这也就意味着最慢的长尾查询都不能超过 90ms；\n6. 可以容忍 false positive。有些内容虽然被过滤掉了，但是系统仍然能为用户召回足够多可能感兴趣的内容，只要 false positive rate 被控制在可接受的范围就可以。\n\n## 解决方案\n\n由于知乎首页的重要性，在设计已读服务架构时，知乎重点考虑三个设计目标：高可用、高性能、易扩展。\n\n![知乎案例.jpg](https://img1.www.pingcap.com/prod/_3fa37448fb.jpg)\n<center>知乎已读服务架构图</center>\n\n已读服务框架上层的客户端 API 和 Proxy 是完全无状态可随时扩展的组件。最底层为存储全部状态数据的 TiDB，中间组件都是弱状态的组件，主体是分层的 Redis 缓冲。除了 Redis 缓冲外，还有一些其他外部组件配合 Redis 来保证 Cache 的一致性。\n\n存储层，知乎最初采用了 MySQL 数据库，但在面临知乎这个体量的数据时 MySQL 单机已经无法满足需求，尽管尝试了分库分表+ MHA 机制，当每月新增 1000 亿条数据的情况下也无法安心应对。寻找一款可持续发展、可维护、高可用的替代方案迫在眉睫，最终，知乎选择了对 MySQL 高度兼容的 TiDB 作为替代方案。在整个系统中，TiDB 层自身已经拥有高可用能力，可以实现自愈。系统中无状态的组件非常容易扩展，而有状态的组件中弱状态的部分也可以通过 TiDB 保存的数据恢复，出现故障时也可以自愈。\n\n此外，系统中还有一些组件负责维护缓冲一致性，但它们自身是没有状态的。所以在系统所有组件拥有自愈能力和全局故障监测的前提下，知乎使用 Kubernetes 来管理整个系统，从而在机制上确保整个服务的高可用。\n\n## 用户收益\n\n- TiDB 高度兼容 MySQL，知乎原有业务只需进行少量修改即可平滑迁移，替换风险小；\n- 基于分布式架构的 TiDB 可以进行水平弹性扩展，在遇到数据量大幅增长时只需简单地增加节点就可以实现容量和性能的线性提升；\n- 大大提升知乎已读服务吞吐量，迁移至 TiDB 后，已读服务的流量已达 40000 行记录写入，30000 独立查询和 1200 万个文档判读，在这样的压力下已读服务响应时间的 P99 与 P999 仍然维持在 25ms 和 50ms。","customerProfile":{"id":41,"logo":{"alt":"知乎 logo","media":{"url":"https://img1.www.pingcap.com/prod/logo_75b30dc619.png"}},"industry":"生活服务","region":null,"headquarters":null,"scale":null,"description":"知乎于 2011 年 1 月正式上线，是中文互联网高质量的问答社区和创作者聚集的原创内容平台。截至 2020 年， 已有超过 4000 万名答主在知乎创作，全站问题总数超过 4400 万，回答总数超过 2.4 亿。","customerQuote":null},"relatedCases":[{"customerCase":{"id":16,"title":"TiDB x 美团 | 携手开启新一代数据库深度实践之旅","description":"TiDB 分布式架构很好地解决了美团因业务爆发增长带来的数据存储难题，同时 TiDB 的 HTAP 帮助美团直接在线上 T+0 传数据给市场进行计算分析，降低了试错成本及营销成本。","customUrl":"user-case-meituandianping"}},{"customerCase":{"id":20,"title":"TiDB x 伴鱼 | 用户增幅 300% 背后的秘密武器","description":"为满足业务快速发展和创新的需求，伴鱼经过评估决定「All in TiDB」。从目前来看，数据库响应时间、稳定性、扩展性都达到预期，All in TiDB 是一次非常正确的选择。","customUrl":"user-case-banyu"}},{"customerCase":{"id":29,"title":"TiDB x 京东云 | 京东物流在云数据库上的选择和实战","description":"TiDB 不仅解决了京东物流在 MySQL 架构下遗留的“快、慢、烦”三大问题，更带来了意外的惊喜：按两年为周期计算，IT 成本将下降到原来的 1/3。预计到 2021 年年底，京东集团内部使用 TiDB 的规模会再增长 100%。","customUrl":"user-case-jdl"}}],"relatedSolutions":[{"solution":{"id":1,"title":"TiDB OLTP Scale 通用解决方案","description":"适用于业务对数据库弹性伸缩的诉求，简化系统架构，提高可用性和稳定性。","customUrl":"tidb-oltp-scale-general-solution"}},{"solution":{"id":5,"title":"TiDB 实时数据服务解决方案","description":"适用于实时监控、实时大屏、实时营销、实时搜索、实时资产、实时 AI 等场景。","customUrl":"tidb-realtime-data-service-solution"}}],"whitePaperLink":"  ","pdfLink":"  ","fillInMethod":"writeDirectly","file":null}}},
    "staticQueryHashes": ["1327623483","1820662718","3081853212","3430003955","3649515864","3977586744","4265596160","631028557","63159454"]}