springboot第38集:后端存储知识

2023年 9月 3日 55.2k 0

"系统盘"、"数据硬盘"和"硬盘"是计算机领域中常用的术语,它们描述了不同类型的存储设备以及它们在计算机系统中的作用。以下是它们的区别:

  • 系统盘: 系统盘通常指的是计算机中用于安装操作系统的存储设备,例如 Windows、macOS 或 Linux。系统盘包含操作系统的安装文件、系统文件以及启动所需的引导信息。当计算机启动时,它会从系统盘读取操作系统并加载到内存中,以便用户可以与计算机进行交互。系统盘通常是计算机启动过程中的核心组成部分。
  • 数据硬盘: 数据硬盘是用于存储用户创建的文件、文档、媒体内容等数据的存储设备。这些硬盘通常用于保存用户的个人数据,如照片、视频、文档和应用程序。数据硬盘与系统盘不同,它们不包含操作系统文件,而是用于存储用户的个人文件和数据。数据硬盘可以是内部硬盘(安装在计算机内部)或外部硬盘(连接到计算机的外部端口,如USB)。
  • 硬盘: "硬盘" 一般指的是计算机中用于存储数据的物理设备。硬盘驱动器是一种存储介质,它使用旋转的磁盘片和读写头来存储和检索数据。硬盘通常分为机械硬盘(HDD)和固态硬盘(SSD)两种类型。机械硬盘使用旋转的盘片来存储数据,而固态硬盘则使用闪存芯片。硬盘是计算机中的主要存储设备,用于保存操作系统、应用程序和用户数据。
  • 总结来说,系统盘用于安装操作系统,数据硬盘用于存储用户数据,而硬盘是通用术语,指的是计算机存储设备,可以是系统盘、数据硬盘,或其他类型的存储介质。随着技术的发展,还有其他类型的存储设备,如固态硬盘(SSD)和NVMe驱动器等。

    cat /etc/redhat-release

    - 消息队列的核心价值 -

    解耦合。
    
    异步处理 例如电商平台,秒杀活动。一般流程会分为:1: 风险控制、2:库存锁定、3:生成订单、4:短信通知、5:更新数据。
    
    通过消息系统将秒杀活动业务拆分开,将不急需处理的业务放在后面慢慢处理;流程改为:1:风险控制、2:库存锁定、3:消息系统、4:生成订单、5:短信通知、6:更新数据。
    
    流量的控制 1. 网关在接受到请求后,就把请求放入到消息队列里面 2.后端的服务从消息队列里面获取到请求,完成后续的秒杀处理流程。然后再给用户返回结果。优点:控制了流量 缺点:会让流程变慢。
    

    - Kafka 核心概念 -

    生产者:Producer 往Kafka集群生成数据消费者:Consumer 往Kafka里面去获取数据,处理数据、消费数据Kafka的数据是由消费者自己去拉去Kafka里面的数据主题:topic分区:partition 默认一个topic有一个分区(partition),自己可设置多个分区(分区分散存储在服务器不同节点上)。

    - 集群架构 -

    Kafka集群中,一个kafka服务器就是一个broker Topic只是逻辑上的概念,partition在磁盘上就体现为一个目录Consumer Group:消费组 消费数据的时候,都必须指定一个group id,指定一个组的id假定程序A和程序B指定的group id号一样,那么两个程序就属于同一个消费组特殊。

    比如,有一个主题topicA程序A去消费了这个topicA,那么程序B就不能再去消费topicA(程序A和程序B属于一个消费组) 再比如程序A已经消费了topicA里面的数据,现在还是重新再次消费topicA的数据,是不可以的,但是重新指定一个group id号以后,可以消费。不同消费组之间没有影响。

    消费组需自定义,消费者名称程序自动生成(独一无二)。Controller:Kafka节点里面的一个主节点。

    - 数据性能 -

    kafka写数据:顺序写,往磁盘上写数据时,就是追加数据,没有随机写的操作。经验: 如果一个服务器磁盘达到一定的个数,磁盘也达到一定转数,往磁盘里面顺序写(追加写)数据的速度和写内存的速度差不多生产者生产消息,经过kafka服务先写到os cache 内存中,然后经过sync顺序写到磁盘上。

    - 零拷贝数据高性能 -

    消费者读取数据流程:

    消费者发送请求给kafka服务;

    kafka服务去os cache缓存读取数据(缓存没有就去磁盘读取数据);

    从磁盘读取了数据到os cache缓存中;

    os cache复制数据到kafka应用程序中;

    kafka将数据(复制)发送到socket cache中;

    socket cache通过网卡传输给消费者。

    kafka linux sendfile技术 — 零拷贝
    

    1.消费者发送请求给kafka服务 ;

    2.kafka服务去os cache缓存读取数据(缓存没有就去磁盘读取数据) ;

    3.从磁盘读取了数据到os cache缓存中 ;

    4.os cache直接将数据发送给网卡 ;

    5.通过网卡将数据传输给消费者。

    - Kafka 日志分段保存 -

    Kafka中一个主题,一般会设置分区;比如创建了一个topic_a,然后创建的时候指定了这个主题有三个分区。其实在三台服务器上,会创建三个目录。服务器1(kafka1)创建目录topic_a-0:。

    目录下面是我们文件(存储数据),kafka数据就是message,数据存储在log文件里。.log结尾的就是日志文件,在kafka中把数据文件就叫做日志文件 。一个分区下面默认有n多个日志文件(分段存储),一个日志文件默认1G。

    Kafka里面每一条消息,都有自己的offset(相对偏移量),存在物理磁盘上面,在position Position:物理位置(磁盘上面哪个地方)也就是说一条消息就有两个位置:offset:相对偏移量(相对位置)position:磁盘物理位置稀疏索引: Kafka中采用了稀疏索引的方式读取索引,kafka每当写入了4k大小的日志(.log),就往index里写入一个记录索引。其中会采用二分查找:

    - 高并发网络设计 NIO -

    - Kafka 冗余副本保证高可用 -

    - 优秀架构思考 -

    Kafka — 高并发、高可用、高性能 高可用:多副本机制 高并发:网络架构设计 三层架构:多selector -> 多线程 -> 队列的设计(NIO) 高性能:写数据:

    把数据先写入到OS Cache

    写到磁盘上面是顺序写,性能很高

    读数据:

    根据稀疏索引,快速定位到要消费的数据

    零拷贝机制 减少数据的拷贝 减少了应用程序与操作系统上下文切换

    - Kafka 生产环境搭建 -

    需求场景分析

    电商平台,需要每天10亿请求都要发送到Kafka集群上面。二八反正,一般评估出来问题都不大。10亿请求 -> 24 过来的,一般情况下,每天的12:00 到早上8:00 这段时间其实是没有多大的数据量的。80%的请求是用的另外16小时的处理的。16个小时处理 -> 8亿的请求。16 * 0.2 = 3个小时 处理了8亿请求的80%的数据。

    也就是说6亿的数据是靠3个小时处理完的。我们简单的算一下高峰期时候的qps6亿/3小时 =5.5万/s qps=5.5万。

    10亿请求 * 50kb = 46T 每天需要存储46T的数据。

    一般情况下,我们都会设置两个副本 46T * 2 = 92T Kafka里面的数据是有保留的时间周期,保留最近3天的数据。92T * 3天 = 276T我这儿说的是50kb不是说一条消息就是50kb不是(把日志合并了,多条日志合并在一起),通常情况下,一条消息就几b,也有可能就是几百字节。

    - 物理机数量评估 -

    (1)首先分析一下是需要虚拟机还是物理机 像Kafka mysql hadoop这些集群搭建的时候,我们生产里面都是使用物理机。

    (2)高峰期需要处理的请求总的请求每秒5.5万个,其实一两台物理机绝对是可以抗住的。一般情况下,我们评估机器的时候,是按照高峰期的4倍的去评估。如果是4倍的话,大概我们集群的能力要准备到 20万qps。这样子的集群才是比较安全的集群。大概就需要5台物理机。每台承受4万请求。

    场景总结:搞定10亿请求,高峰期5.5万的qps,276T的数据,需要5台物理机。

    - 磁盘选择 -

    搞定10亿请求,高峰期5.5万的qps,276T的数据,需要5台物理机。

    (1)SSD固态硬盘,还是需要普通的机械硬盘SSD硬盘:性能比较好,但是价格贵 SAS盘:某方面性能不是很好,但是比较便宜。SSD硬盘性能比较好,指的是它随机读写的性能比较好。适合MySQL这样集群。但是其实他的顺序写的性能跟SAS盘差不多。

    kafka的理解:就是用的顺序写。所以我们就用普通的【机械硬盘】就可以了。

    (2)需要我们评估每台服务器需要多少块磁盘 5台服务器,一共需要276T ,大约每台服务器 需要存储60T的数据。我们公司里面服务器的配置用的是 11块硬盘,每个硬盘 7T。11 * 7T = 77T。

    77T * 5 台服务器 = 385T。

    场景总结:

    搞定10亿请求,需要5台物理机,11(SAS) * 7T。

    - 内存评估 -

    搞定10亿请求,需要5台物理机,11(SAS) * 7T。

    我们发现kafka读写数据的流程 都是基于os cache,换句话说假设咱们的os cashe无限大那么整个kafka是不是相当于就是基于内存去操作,如果是基于内存去操作,性能肯定很好。内存是有限的。

    (1)尽可能多的内存资源要给 os cache。

    (2)Kafka的代码用 核心的代码用的是scala写的,客户端的代码java写的。都是基于jvm。所以我们还要给一部分的内存给jvm。Kafka的设计,没有把很多数据结构都放在jvm里面。所以我们的这个jvm不需要太大的内存。根据经验,给个10G就可以了。

    NameNode: jvm里面还放了元数据(几十G),JVM一定要给得很大。比如给个100G。

    假设我们这个10请求的这个项目,一共会有100个topic。100 topic * 5 partition * 2 = 1000 partition 一个partition其实就是物理机上面的一个目录,这个目录下面会有很多个.log的文件。

    .log就是存储数据文件,默认情况下一个.log文件的大小是1G。我们如果要保证 1000个partition 的最新的.log 文件的数据 如果都在内存里面,这个时候性能就是最好。1000 * 1G = 1000G内存. 我们只需要把当前最新的这个log 保证里面的25%的最新的数据在内存里面。250M * 1000 = 0.25 G* 1000 =250G的内存。

    250内存 / 5 = 50G内存 50G+10G = 60G内存。

    64G的内存,另外的4G,操作系统本生是不是也需要内存。其实Kafka的jvm也可以不用给到10G这么多。评估出来64G是可以的。当然如果能给到128G的内存的服务器,那就最好。

    我刚刚评估的时候用的都是一个topic是5个partition,但是如果是数据量比较大的topic,可能会有10个partition。

    总结:搞定10亿请求,需要5台物理机,11(SAS) * 7T ,需要64G的内存(128G更好)

    - CPU 压力评估 -

    评估一下每台服务器需要多少cpu core(资源很有限)。

    我们评估需要多少个cpu ,依据就是看我们的服务里面有多少线程去跑。线程就是依托cpu 去运行的。如果我们的线程比较多,但是cpu core比较少,这样的话,我们的机器负载就会很高,性能不就不好。

    评估一下,kafka的一台服务器 启动以后会有多少线程?

    Acceptor线程 1 processor线程 3 6~9个线程 处理请求线程 8个 32个线程 定时清理的线程,拉取数据的线程,定时检查ISR列表的机制 等等。所以大概一个Kafka的服务启动起来以后,会有一百多个线程。

    cpu core = 4个,一遍来说,几十个线程,就肯定把cpu 打满了。cpu core = 8个,应该很轻松的能支持几十个线程。如果我们的线程是100多个,或者差不多200个,那么8 个 cpu core是搞不定的。所以我们这儿建议:CPU core = 16个。如果可以的话,能有32个cpu core 那就最好。

    结论:kafka集群,最低也要给16个cpu core,如果能给到32 cpu core那就更好。2cpu * 8 =16 cpu core 4cpu * 8 = 32 cpu core。

    总结:搞定10亿请求,需要5台物理机,11(SAS) * 7T ,需要64G的内存(128G更好),需要16个cpu core(32个更好)。

    - 网络需求评估 -

    评估我们需要什么样网卡?一般要么是千兆的网卡(1G/s),还有的就是万兆的网卡(10G/s)。

    高峰期的时候 每秒会有5.5万的请求涌入,5.5/5 = 大约是每台服务器会有1万个请求涌入。

    我们之前说的,10000 * 50kb = 488M

    也就是每条服务器,每秒要接受488M的数据。

    数据还要有副本,副本之间的同步也是走的网络的请求。

    488 * 2 = 976m/s

    说明一下:

    很多公司的数据,一个请求里面是没有50kb这么大的,我们公司是因为主机在生产端封装了数据

    然后把多条数据合并在一起了,所以我们的一个请求才会有这么大。

    说明一下:

    一般情况下,网卡的带宽是达不到极限的,如果是千兆的网卡,我们能用的一般就是700M左右。

    但是如果最好的情况,我们还是使用万兆的网卡。

    如果使用的是万兆的,那就是很轻松。

    - 集群规划 -

    请求量规划物理机的个数 分析磁盘的个数,选择使用什么样的磁盘 内存 cpu core 网卡就是告诉大家,以后要是公司里面有什么需求,进行资源的评估,服务器的评估,大家按照我的思路去评估:

    一条消息的大小 50kb -> 1kb 500byte 1Mip 主机名 192.168.0.100 hadoop1 192.168.0.101 hadoop2 192.168.0.102 hadoop3。

    主机的规划:kafka集群架构的时候:主从式的架构:controller -> 通过zk集群来管理整个集群的元数据。

    zookeeper集群 hadoop1 hadoop2 hadoop3;

    kafka集群 理论上来讲,我们不应该把kafka的服务于zk的服务安装在一起。但是我们这儿服务器有限。所以我们kafka集群也是安装在hadoop1 haadoop2 hadoop3。

    1. 准备工作

    • java环境
    • zookeeper压缩包

    2. 安装步骤

    2.1 下载 zookeeper 包

    进入服务器常用下载的位置,我一般是放在/usr/local/ ,执行下载命令.

    wget mirrors.hust.edu.cn/apache/zook…

    .你也可以使用本地电脑下载,然后再上传到远程服务器.国内访问apache官网速度比较慢.可以通过镜像的方式访问下载mirrors.hust.edu.cn/apache/zook…

    必须下载带有bin标识的

    apache-zookeeper-3.6.2-bin.tar.gz

    # 进入下载的路径

    cd /usr/local

    # 解压压缩包

    tar -zxvf apache-zookeeper-3.6.2-bin.tar.gz

    # 重命名

    mv apache-zookeeper-3.6.2-bin zookeeper

    cd zookeeper

    # 解压之后 conf中没有zoo.cfg 配置文件的,需要cp一份,不然启动会报错

    cd conf

    cp zoo_sample.cfg zoo.cfg

    vim zoo.cfg

    # 修改 dataDir 为自己zookeeper解压的路径

    dataDir=/usr/local/zookeeper/data

    # 新增客服端服务端口,默认是8080 不修改 可能因为8080端口占用报错

    admin.serverPort=8899

    2.3 添加全局环境变量

    vim /etc/profile,在最底下新增 export zookeeper_home=/usr/local/zookeeper 这个路径根据自己解压的路径保持一致

    2.4 测试启动

    启动指令sh $zookeeper_home/bin/zkServer.sh start或者sh /usr/local/zookeeper/bin/zkServer.sh start文件

    启动成功

    查看启动状态sh zookeeperhome/bin/zkCill.sh−serverlocalhost:2181或者shzookeeper_home/bin/zkCill.sh -server localhost:2181 或者 sh zookeeperh​ome/bin/zkCill.sh−serverlocalhost:2181或者shzookeeper_home/bin/zkServer.sh status

    结束停止sh $zookeeper_home/bin/zkServer.sh stop

    加群联系作者vx:xiaoda0423

    仓库地址:github.com/webVueBlog/…

    相关文章

    JavaScript2024新功能:Object.groupBy、正则表达式v标志
    PHP trim 函数对多字节字符的使用和限制
    新函数 json_validate() 、randomizer 类扩展…20 个PHP 8.3 新特性全面解析
    使用HTMX为WordPress增效:如何在不使用复杂框架的情况下增强平台功能
    为React 19做准备:WordPress 6.6用户指南
    如何删除WordPress中的所有评论

    发布评论