LinkedIn使用Kafka日均处理消息超4.5万亿条

LinkedIn总部位于美国加利福尼亚州山景城,是一家全球最大的职业社交网站,成立于2002年12月,于2011年5月20日在美上市。截至目前,LinkedIn一共有超过6.45亿会员,超过2000万个工作岗位。LinkedIn目前使用Kafka日均处理消息超4.5万亿条,并已决定将所有工作负载迁移到Azure公有云上。

2009年,LinkedIn注册用户超过5000万人。2014年,其注册用户规模已经超过3亿。而今天,LinkedIn已经拥有超过6.45亿注册用户,超过2000万个工作岗位,每八秒钟就有一个人通过LinkedIn被雇佣。

伴随业务规模的不断扩大,LinkedIn的技术团队需要成长得更加健壮,才能满足业务需求。LinkedIn的技术团队创造了一个世界级的基础设施和一套工具和产品,使用Project Inversion重建了整个软件开发基础设施,并且选择将技术团队造的轮子开源,回馈社区与其他公司。在 LinkedIn 的数据基础设施中,Kafka 是核心支柱之一。

LinkedIn 在 2011 年 7 月开始大规模使用 Kafka,当时 Kafka 每天大约处理 10 亿条消息,这一数据在 2012 年达到了每天 200 亿条,而到了 2013 年 7 月,每天处理的消息达到了 2000 亿条。2015年,他们的最新记录是每天利用 Kafka 处理的消息超过 1 万亿条,在峰值时每秒钟会发布超过 450 万条消息,每周处理的信息是 1.34 PB。每条消息平均会被 4 个应用处理。在使用 Kafka 的最初四年中,实现了 1200 倍的增长。2019年,这个数字已经变成了4.5万亿条。

LinkedIn在将Kafka捐献给Apache基金会后,也在持续打磨、优化着Kafka的使用与生态。随着规模的不断扩大,LinkedIn 更加关注于 Kafka 的可靠性、成本、安全性、可用性以及其他的基础指标。

LinkedIn 在 Kafka 上的主要关注领域包括:

  • 配额(Quotas)

  • 开发新的Consumer

  • 可靠性和可用性的提升

  • 安全性

  • ……

除了关注打磨Kafka技术本身以外,LinkedIn还针对Kafka构建了一套完整的生态系统,以解决日益增长的业务规模所带来的新挑战。

上图并不能完全反映 LinkedIn 的各种数据管道和拓扑结构,但足以说明 LinkedIn 的 Kafka 部署的关键部分,以及它们是怎样相互作用。

另据了解,LinkedIn目前正在更换其数据中心,计划在未来几年向 Azure 迁移,并将关键业务数据委托给云平台。LinkedIn 高级副总裁 Mohak Shroff 表示,这将是该公司史上最大的技术转型之一,预计至少需要三年时间才能完成 6.45 亿用户数据迁移,以避免损害网站的可访问性、可靠性和性能。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章