Kafka 支持高吞吐量、高度分布式、容错性强的平台,能够以低延迟传递消息。
有几种技术使 Apache Kafka 如此快速:
大多数传统的数据系统使用随机存取内存(RAM)进行数据存储,因为RAM提供了极低的延迟。让我们看看使用RAM的优缺点。
Kafka 避免了随机存取内存,它通过顺序I/O和零拷贝原理实现低延迟消息传递。
Kafka 在存储和缓存消息时大量依赖文件系统。有一种普遍的看法是“磁盘很慢”,这意味着高寻址时间。想象一下,如果我们可以避免寻址时间,我们可以实现与RAM一样低的延迟。Kafka 通过顺序I/O来实现这一点。
Kafka 的基本概念是日志(log);这是一种仅附加、完全有序的数据结构。
下面是一个演示日志流(队列)的图示,生产者以不可变和单调的方式在日志流的末尾追加,而订阅者/消费者可以维护自己的指针以指示当前消息的处理。
来源:https://kafka.apache.org/intro.html
每当生产者发布一条消息时,它都会收到包含记录偏移量的确认。第一条发布到分区的记录的偏移量为0,第二条为1,以此类推,以递增的顺序。消费者从由偏移量指定的位置消费数据,然后定期将其位置保存在日志中以进行提交。保存偏移量的目的是让另一个消费者在消费者实例崩溃时可以从其位置恢复。
当我们从内存中提取数据并将其发送到网络时会发生什么。
图像概念来自:https://developer.ibm.com/articles/j-zerocopy/
正如您所看到的,将数据在内核上下文和应用程序上下文之间进行复制是多余的,这会消耗CPU周期和内存带宽,尤其是在数据量很大时会导致性能下降。这正是零拷贝原则要解决的问题。
图像概念来自:https://developer.ibm.com/articles/j-zerocopy/
高效的压缩需要将多个消息一起压缩,而不是分别压缩每个消息。
Kafka 支持这一点,允许递归消息集。一批消息可以被聚合在一起压缩,并以这种形式发送到服务器。这批消息将以压缩形式写入,保持在日志中并只能由消费者解压缩。
假设带宽为10MB/s,一次性发送10MB数据比逐个发送10000条消息要快得多(假设每条消息占用100字节)。
压缩会提高消费者的吞吐量,但会增加一些解压缩成本。
Kafka 支持 GZIP 和 SnAppy 压缩协议。
首先让我们了解什么是垂直扩展。假设对于传统数据库服务器,当负载增加时,处理的一种方法是添加更多的资源,例如 CPU、RAM、SSD 等。这被称为垂直扩展。它有一些缺点,如下所示:
水平扩展通过添加更多的机器来解决相同的问题。
Kafka 具有在数千台机器之间为单个主题拥有数千个分区的能力,这意味着 Kafka 可以处理大量负载。