Openstack 网络服务Neutron [五]

2023年 5月 4日 36.2k 0

早期的时候是没有neutron,早期所使用的网络的nova-network,经过版本改变才有个neutron
Openstack 网络服务Neutron [五]
openstack
时间:2016年11月28日
Neutron介绍
neutron是openstack重要组件之一,在以前是时候没有neutron项目
image_1b2kngmcvdjff1p1iv514b4jru9.png-90.5kB
早期的时候是没有neutron,早期所使用的网络的nova-network,经过版本改变才有个neutron
Openstack Networking
网络:
在实际的物理环境下,我们使用交换机或者集线器把多个计算机连接起来形成了网络。在Neutron的世界里,网络也是将多个不同的云主机连接起来。
子网:
在实际的物理环境下,在一个网络中。我们可以将网络划分成多为逻辑子网。在Neutron的世界里,子网也是隶属于网络下的。
端口:
是实际的物理环境下,每个子网或者网络,都有很多的端口,比如交换机端口来供计算机连接。在Neutron的世界端口也是隶属于子网下,云主机的网卡会对应到一个端口上。
路由器:
在实际的网络环境下,不同网络或者不同逻辑子网之间如果需要进行通信,需要通过路由器进行路由。在Neutron的实际里路由也是这个作用。用来连接不同的网络或者子网。
Neutron 架构介绍
image_1b2knirjd1tf514ndcrsbtk1hc1m.png-67.4kB
Neutron也分为控制节点和计算节点
openstack默认的网络是单一扁平网络(虚拟机跟宿主机在同一个网段)在官方文档上称为提供者网络
安装
数据库我们在一开始就已经创建完成
keystone用户我们也已经创建完成
配置网络选项
您可以部署网络服务使用选项1和选项2两种架构中的一种来部署网络服务。
选项1采用尽可能简单的架构进行部署,只支持实例连接到公有网络(外部网络)。没有私有网络(个人网络),路由器以及浮动IP地址。只有admin或者其他特权用户才可以管理公有网络
选项2在选项1的基础上多了layer-3服务,支持实例连接到私有网络。demo或者其他没有特权的用户可以管理自己的私有网络,包含连接公网和私网的路由器。另外,浮动IP地址可以让实例使用私有网络连接到外部网络,例如互联网
典型的私有网络一般使用覆盖网络。覆盖网络,例如VXLAN包含了额外的数据头,这些数据头增加了开销,减少了有效内容和用户数据的可用空间。在不了解虚拟网络架构的情况下,实例尝试用以太网 最大传输单元 (MTU) 1500字节发送数据包。网络服务会自动给实例提供正确的MTU的值通过DHCP的方式。但是,一些云镜像并没有使用DHCP或者忽视了DHCP MTU选项,要求使用元数据或者脚本来进行配置
我们先进行配置公共网络
在控制节点安装组件

[root@linux-node1 ~]#yum install openstack-neutron openstack-neutron-ml2 
  openstack-neutron-linuxbridge ebtables

提示:neutron和其他组件的小区别是配置完数据库之后不可以马上进行同步,它还依赖其他配置文件
编辑/etc/neutron/neutron.conf文件并完成如下操作

在[database]配置数据库访问
[root@linux-node1 ~]# vim /etc/neutron/neutron.conf
684 connection = mysql+pymysql://neutron:neutron@192.168.56.11/neutron

提示:不需要同步数据库,684为684行
在 [DEFAULT] 和 [keystone_authtoken] 部分,配置认证服务访问

[DEFAULT]
auth_strategy = keystone

[keystone_authtoken]
auth_uri = http://192.168.56.11:5000
auth_url = http://192.168.56.11:35357
memcached_servers = 192.168.56.11:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = neutron
password = neutron

rabbitmq(消息队列)配置

rpc_backend = rabbit
rabbit_host = 192.168.56.11
rabbit_userid = openstack
rabbit_password = openstack

neutron核心配置有2个
启动ML2插件并禁用其他插件

[DEFAULT]
…
core_plugin = m12
service_plugins =
提示:service_plugins等号后面什么都不写就是禁用其他插件

配置网络服务来通知计算节点的网络拓扑变化:(配置nova相关)

[DEFAULT]
…
notify_nova_on_port_status_changes = true
notify_nova_on_port_data_changes = true

提示:简单的来说就是端口发生变化通知nova

[nova]
nova标签的配置其实就是keystone的配置
auth_url = http://192.168.56.11:35357
auth_type = password
project_domain_name = default
user_domain_name = default
region_name = RegionOne
project_name = service
username = nova
password = nova

配置锁路径

[oslo_concurrency]
lock_path = /var/lib/neutron/tmp

neutron配置小结:

[root@linux-node1 ~]# grep '^[a-z]' /etc/neutron/neutron.conf
auth_strategy = keystone                #使用keystone进行验证
core_plugin = ml2                   #使用ml2插件
service_plugins =                       #不使用其他插件
notify_nova_on_port_status_changes = true   #端口改变通知nova
notify_nova_on_port_data_changes = true     #端口改变通知nova
rpc_backend = rabbit                        #使用rabbit
connection = mysql+pymysql://neutron:neutron@192.168.56.11/neutron #数据库连接地址
auth_uri = http://192.168.56.11:5000            #neutron keystone的配置
auth_url = http://192.168.56.11:35357       #neutron keystone的配置
memcached_servers = 192.168.56.11:11211 #neutron keystone的配置
auth_type = password                        #neutron keystone的配置
project_domain_name = default               #neutron keystone的配置
user_domain_name = default              #neutron keystone的配置
project_name = service                      #neutron keystone的配置
username = neutron                      #neutron keystone的配置
password = neutron                      #neutron keystone的配置
auth_url = http://192.168.56.11:35357       #neutron nova的配置
auth_type = password                        #neutron nova的配置
project_domain_name = default               #neutron nova的配置
user_domain_name = default              #neutron nova的配置
region_name = RegionOne                 #neutron nova的配置
project_name = service                      #neutron nova的配置
username = nova                         #neutron nova的配置
password = nova                         #neutron nova的配置
lock_path = /var/lib/neutron/tmp            #锁路径
rabbit_host = 192.168.56.11                 #rabbitmq配置
rabbit_userid = openstack                   #rabbitmq配置
rabbit_password = openstack             #rabbitmq配置

配置Modular Layer 2 (ML2)
ML2插件使用Linuxbridge机制来为实例创建layer-2虚拟网络基础设施
编辑配置文件/etc/neutron/plugins/ml2/ml2_conf.ini
驱动的选择

[ml2]
type_drivers = flat,vlan,gre,vxlan,geneve

设置使用那几个插件来创建网络

[ml2]
mechanism_drivers = linuxbridge,openvswitch

提示:我们可以写多个,不管用不用都可以写上去
禁用私有网络

[ml2]
tenant_network_types =

启动端口安全扩展驱动

[ml2]
extension_drivers = port_security

在[ml2_type_flat]部分,配置公共虚拟网络为flat网络

[ml2_type_flat]
flat_networks = public
#配置公共的网络

在 [securitygroup]部分,启用 ipset增加安全组规则的高效性:

[securitygroup]
enable_ipset = true

提示:ml2_conf里面的网络类型很多,我们需要那种网络类型配置即可
ML2插件配置小结:

[root@linux-node1 ~]# grep '^[a-z]' /etc/neutron/plugins/ml2/ml2_conf.ini
type_drivers = flat,vlan,gre,vxlan,geneve           #驱动类型
tenant_network_types =                      #租户的网络类型
mechanism_drivers = linuxbridge,openvswitch     #创建网络插件
extension_drivers = port_security               #打开端口安全
flat_networks = public                          #网络类型public
enable_ipset = true                         #开启ipset

配置Linuxbridge代理
编辑/etc/neutron/plugins/ml2/linuxbridge_agent.ini文件并且完成以下操作

在[linux_bridge]部分,将公共虚拟网络和公共物理网络接口对应起来:
[linux_bridge]
physical_interface_mappings = public:eth0

#是什么网卡就修改什么网卡,如果不是eth0请修改对应网卡

在[vxlan]部分,禁止VXLAN覆盖网络:

[vxlan]
enable_vxlan = false

在[securitygroup]部分,启用安全组并配置 Linuxbridge iptables firewall driver:

[securitygroup]
...
enable_security_group = True
firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver
#启动安全组并设置防火墙驱动

Linuxbridge代理总结如下:

[root@linux-node1 ~]# grep '^[a-z]' /etc/neutron/plugins/ml2/linuxbridge_agent.ini
physical_interface_mappings = public:eth0           #网络映射
firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver #防火墙
enable_security_group = true                    #打开安全组
enable_vxlan = false                            #关闭vxlan

配置DHCP代理
编辑/etc/neutron/dhcp_agent.ini文件并完成下面的操作:
在[DEFAULT]部分,配置Linuxbridge驱动接口,DHCP驱动并启用隔离元数据,这样在公共网络上的实例就可以通过网络来访问元数据

[DEFAULT]
…
interface_driver = neutron.agent.linux.interface.BridgeInterfaceDriver
#虚拟接口驱动,使用Linuxbridge

dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq
#dhcp驱动,默认使用Dnsmasq(是一个小的开源项目)来提供dhcp服务

enable_isolated_metadata = false
#刷新路由使用

DHCP配置小结

[root@linux-node1 ~]# grep '^[a-z]' /etc/neutron/dhcp_agent.ini
interface_driver = neutron.agent.linux.interface.BridgeInterfaceDriver #底层插件Linuxbridge
dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq                      #DHCP
enable_isolated_metadata = false                                    #推送路由使用

配置元数据代理
负责提供配置信息,例如:访问实例的凭证
编辑/etc/neutron/metadata_agent.ini文件并完成以下操作:
在[DEFAULT]部分,配置元数据主机以及共享密码:

nova_metadata_ip = 192.168.56.11        #元数据主机
metadata_proxy_shared_secret = abcdocker  #共享密钥

提示:这个共享密钥就是一个字符串
配置网络服务(nova-api)
编辑/etc/nova/nova.conf文件并完成以下操作:
在[neutron]部分,配置访问参数,启用元数据代理并设置密码:

url = http://192.168.56.11:9696
auth_url = http://192.168.56.11:35357
auth_type = password
project_domain_name = default
user_domain_name = default
region_name = RegionOne
project_name = service
username = neutron
password = neutron

提示:9696是neutron-server的端口

[neutron]
service_metadata_proxy=true
metadata_proxy_shared_secret = abcdocker       #共享密钥

网络服务初始化脚本需要一个超链接 /etc/neutron/plugin.ini指向ML2插件配置文件/etc/neutron/plugins/ml2/ml2_conf.ini 如果超链接不存在,使用下面的命令创建它:

[root@linux-node1 ~]# ln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini

提示:这里我们使用那个插件就用它做一个软连接即可
同步数据库

[root@linux-node1 ~]# su -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf 
  --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron

注:数据库的同步发生在 Networking 之后,因为脚本需要完成服务器和插件的配置文件。
重启计算API 服务:

[root@linux-node1 ~]# systemctl restart openstack-nova-api.service

当系统启动时,启动Networking服务并配置它启动。
对于两种网络选项:

[root@linux-node1 ~]#systemctl enable neutron-server.service 
  neutron-linuxbridge-agent.service neutron-dhcp-agent.service 
  neutron-metadata-agent.service

[root@linux-node1 ~]#systemctl start neutron-server.service 
  neutron-linuxbridge-agent.service neutron-dhcp-agent.service 
  neutron-metadata-agent.service

现在还需要将neutron在keystone上进行注册
创建neutron服务实体:

[root@linux-node1 ~]# source admin-openstack.sh
[root@linux-node1 ~]#openstack service create --name neutron 
  --description "OpenStack Networking" network

创建网络服务API端点:

[root@linux-node1 ~]#openstack endpoint create --region RegionOne 
  network public http://192.168.56.11:9696

[root@linux-node1 ~]# openstack endpoint create --region RegionOne   network internal http://192.168.56.11:9696

[root@linux-node1 ~]# openstack endpoint create --region RegionOne   network admin http://192.168.56.11:9696

检查neutron是否安装成功

[root@linux-node1 ~]# neutron agent-list
+---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+
| id                  | agent_type         | host                | availability_zone | alive | admin_state_up | binary                  |
+---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+
| b41a9731-2bff-4257- | DHCP agent         | linux-              | nova              | :-)   | True           | neutron-dhcp-agent      |
| a3e9-91b13f568932   |                    | node1.abcdocker.com |                   |       |                |                         |
| de108bab-f33a-4319  | Linux bridge agent | linux-              |                   | :-)   | True           | neutron-linuxbridge-    |
| -8caf-dd5fbda74d7e  |                    | node1.abcdocker.com |                   |       |                | agent                   |
| f8286325-19ad-43ae- | Metadata agent     | linux-              |                   | :-)   | True           | neutron-metadata-agent  |
| a25a-c7c2ceca7aed   |                    | node1.abcdocker.com |                   |       |                |                         |
+---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+

image_1b2ko7ub51se1a091r308lg13ol13.png-37.3kB
配置neutron计算节点
安装组件,安装的服务器在192.168.56.12 linux-node2.com上面

[root@linux-node2 ~]# yum install openstack-neutron-linuxbridge ebtables ipset -y

因为控制节点跟计算节点配置几乎一样,我们直接复制控制节点的文件进行修改控制节点拷贝

[root@linux-node1 ~]# scp /etc/neutron/neutron.conf root@192.168.56.12:/etc/neutron

在计算节点进行修改配置文件权限

[root@linux-node2 ~]# chown -R root:neutron /etc/neutron/neutron.conf
[root@linux-node2 ~]# ll /etc/neutron/neutron.conf
-rw-r----- 1 root neutron 53140 Nov 21 15:13 /etc/neutron/neutron.conf

计算节点设置

[root@linux-node2 ~]# vim /etc/neutron/neutron.conf
#connection =           #删除mysql连接路径
[nova]                  #删除nova标签下所有配置
#notify_nova_on_port_status_changes = true      #注释
#notify_nova_on_port_data_changes = true        #注释
#core_plugin = ml2                          #注释插件
#service_plugins =                              #注释

计算节点跟控制节点进行对比

[root@linux-node2 ~]# diff /etc/neutron/neutron.conf /tmp/neutron.conf 
30c30
< #core_plugin = ml2
---
> core_plugin = ml2
33c33
< #service_plugins =
---
> service_plugins =
137c137
< #notify_nova_on_port_status_changes = true
---
> notify_nova_on_port_status_changes = true
141c141
< #notify_nova_on_port_data_changes = true
---
> notify_nova_on_port_data_changes = true
684c684
< #connection = 
---
> connection = mysql+pymysql://neutron:neutron@192.168.56.11/neutron
936a937,944
> auth_url = http://192.168.56.11:35357
> auth_type = password
> project_domain_name = default
> user_domain_name = default
> region_name = RegionOne
> project_name = service
> username = nova
> password = nova

提示:不注释也没有问题,但是为了环境保持一致还是注释掉比较好
为计算节点配置网络服务
我们可以直接复制控制节点的配置进行修改

[root@linux-node1 ~]# vim /etc/nova/nova.conf
…
[neutron]
url = http://192.168.56.11:9696
auth_url = http://192.168.56.11:35357
auth_type = password
project_domain_name = default
user_domain_name = default
region_name = RegionOne
project_name = service
username = neutron
password = neutron

提示:在控制节点的时候我们在nova的配置文件中配置了neutron的节点选项,在neutron配置文件中配置了nova的选项。在计算节点的nova上要配置neutron
在计算节点配置Linuxbridge
配置网络选项
友情提示:这里的配置和控制节点配置一模一样
这里我们还是直接拷贝控制节点的/etc/neutron/plugins/ml2/linuxbridge_agent.ini
拷贝

[root@linux-node1 ~]# scp /etc/neutron/plugins/ml2/linuxbridge_agent.ini 192.168.56.12:/etc/neutron/plugins/ml2/
root@192.168.56.12's password: 
linuxbridge_agent.ini    

查看

[root@linux-node2 ~]# ll /etc/neutron/plugins/ml2/linuxbridge_agent.ini
-rw-r----- 1 root root 7924 Nov 21 16:26 /etc/neutron/plugins/ml2/linuxbridge_agent.ini
[root@linux-node2 ~]# grep '^[a-z]' /etc/neutron/plugins/ml2/linuxbridge_agent.ini
physical_interface_mappings = public:eth0
firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver
enable_security_group = true
enable_vxlan = false
[root@linux-node2 ~]# chown -R root:neutron /etc/neutron/plugins/ml2/linuxbridge_agent.ini

重启计算节点nova-compute

[root@linux-node2 ~]#systemctl restart openstack-nova-compute.service

启动Linuxbridge代理并设置开启启动

[root@linux-node2 ~]# systemctl enable neutron-linuxbridge-agent.service
Created symlink from /etc/systemd/system/multi-user.target.wants/neutron-linuxbridge-agent.service to /usr/lib/systemd/system/neutron-linuxbridge-agent.service.
[root@linux-node2 ~]# systemctl start neutron-linuxbridge-agent.service

进入控制节点,进行检查

[root@linux-node1 ~]# source admin-openstack.sh 
[root@linux-node1 ~]# neutron agent-list
+---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+
| id                  | agent_type         | host                | availability_zone | alive | admin_state_up | binary                  |
+---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+
| b41a9731-2bff-4257- | DHCP agent         | linux-              | nova              | :-)   | True           | neutron-dhcp-agent      |
| a3e9-91b13f568932   |                    | node1.abcdocker.com |                   |       |                |                         |
| de108bab-f33a-4319  | Linux bridge agent | linux-              |                   | :-)   | True           | neutron-linuxbridge-    |
| -8caf-dd5fbda74d7e  |                    | node1.abcdocker.com |                   |       |                | agent                   |
| eb879cc3-ca1d-470b- | Linux bridge agent | linux-              |                   | :-)   | True           | neutron-linuxbridge-    |
| 9fe6-b0e5c2fedf2a   |                    | node2.abcdocker.com |                   |       |                | agent                   |
| f8286325-19ad-43ae- | Metadata agent     | linux-              |                   | :-)   | True           | neutron-metadata-agent  |
| a25a-c7c2ceca7aed   |                    | node1.abcdocker.com |                   |       |                |                         |
+---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+

image_1b2koffje1mu3hk11jf31oqsm4p1g.png-52.8kB
提示:如果网络接口不是eth0,你的配置文件没有修改就会启动不起来
故障解决套路:
1、netstat -lntup确认端口是否监听
2、openstack service list确保服务创建
openstack endpoint list确保三个endpoint创建无误
3、vim修改配置文件debug=true 重启 – 执行命令 – 看日志
M版本中文文档:http://docs.openstack.org/mitaka/zh_CN/install-guide-rdo/keystone-install.html

相关文章:

  1. OpenStack 计算服务Nova [四]
  2. OpenStack 认证服务 KeyStone [二]
  3. Kubernetes 1.14 二进制集群安装
  4. CentOS 7 ETCD集群配置大全

相关文章

KubeSphere 部署向量数据库 Milvus 实战指南
探索 Kubernetes 持久化存储之 Longhorn 初窥门径
征服 Docker 镜像访问限制!KubeSphere v3.4.1 成功部署全攻略
那些年在 Terraform 上吃到的糖和踩过的坑
无需 Kubernetes 测试 Kubernetes 网络实现
Kubernetes v1.31 中的移除和主要变更

发布评论