OpenStack QoS介绍

本文介绍了Neutron QoS服务的设计原理与实现细节,涵盖了服务端与Agent端的设计,包括不同后端驱动的支持情况,以及如何配置和测试QoS策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Quality of Service

Quality of Service高级服务设计为一个服务插件。此服务在多个层级上与其与的Neutron代码解耦(见下文)。

QoS在没有使用继承自插件的mixins的情况下,通过使用ml2 extension 驱动程序,扩展了核心资源(ports,networks)。

关于DB models, API extension, and use cases的详细信息可在此链接查看 qos spec
.

服务端设计

  • neutron.extensions.qos:

    基础extension + API 控制器定义。注意规则是策略的子属性,所有嵌入在了它们的URIs中。

  • neutron.extensions.qos_fip:

    基础extension + API 控制器定义。添加 qos_policy_id 到浮动IP地址,使用户可设置/更新浮动IP的绑定QoS策略。

  • neutron.services.qos.qos_plugin:

    QoSPlugin,实现“qos”扩展的服务插件,接收和处理创建/修改策略和规则的API调用。

  • neutron.services.qos.drivers.manager:

    管理器,传递对象动作到每个使能的QoS驱动,当任何驱动请求RPC 推送通知时,触发RPC调用。

  • neutron.services.qos.drivers.base:
    可插QoS驱动的接口类,用来通知后端关于任何规则或策略改动的事件(创建、更新、删除),包括precommit事件,一些后端需要其来进行同步。此驱动也声明支持的QoS规则,VIF驱动和VNIC类型。

  • neutron.core_extensions.base:

    包含实现核心资源(port/network)扩展的接口类。核心资源扩展很容易整合进感兴趣的插件。我们可能需要一个核心资源扩展管理器,来使用这些扩展,以避免为每一个新的核心资源扩展修改插件。

  • neutron.core_extensions.qos:

    包含QoS核心资源扩展,其符合以上描述的接口。

  • neutron.plugins.ml2.extensions.qos:

    包含ml2扩展驱动程序,其通过重用以上提到的core_extensions.qos模块处理核心资源的更新。将来,我们会看到一个不区分插件的核心资源扩展管理器,其可容易的整合进其他的插件中。

QoS plugin 实现指南

类neutron.extensions.qos.QoSPluginBase为与QoS策略规则相关的方法使用method proxies。每个这样的方法都是通用的,旨在处理任意的规则类型。例如,QoSPluginBase有一个方法“create_policy_rule”,而不是一个“create_policy_dscp_marking_rule”方法和一个“create_policy_bandwidth_limit_rule”方法。方法代理(method proxies)之后的逻辑对插件的“create_policy_dscp_marking_rule”的调用由方法“create_policy_rule”处理,其将接收到作为参数的“QosDscpMarkingRule”对象,以便执行特定于DSCP marking规则类型的操作。这种方式允许引入新的规则类型,而又不需要插件更改代码。可期望的,QoSPluginBase的子类必须覆盖基础类的“abc.abstractmethod”方法,即使是NotImplemented。

QoS 规则类型支持

每个QoS驱动有一个属性名为“supported_rule_types”,其表示此驱动可支持规则。

所有规则类型的列表,可参见: neutron.services.qos.qos_consts.VALID_RULE_TYPES.

Neutron显示的支持的QoS规则列表只是所有活动的QoS驱动支持的规则的通用子集。

注意:核心插件报告的支持规则类型列表,在访问QoS规则资源时不是强制的。这主要是因为,如果某一个位于gate的QoS驱动不能支持我们正在测试的规则,我们将无法创建规则。

数据库模型 models

QoS的设计定义了以下两个概念资源,以应用QoS规则到: a port, a network 或者 a floating IP:

  • QoS policy
  • QoS rule (type specific)

每个QoS策略包含空或多条QoS规则。策略之后应用到网络或端口,使得策略的所有规则应用与相应的Neutron资源。

当应用与一个网络关联时,策略规则可应用/不应用到Neutron内部的端口(比如,router, dhcp, load balancer, 等)。基于QosRule的对象一个默认的可被覆盖的方法:should_apply_to_port。将来我们打算在“QoSNetworkPolicyBinding”或者“QosRule”中增加一个标记,以强制此类型的应用(例如,当自动限制在外部网络上的router设备的所有ingress流量)。

每个project可最多一个默认QoS策略,但这不是强制的。如果定义了默认的QoS策略,此project内创建的所有新网络将被赋予此策略,前提是如果在创建流程中没有明确的关联其它的QoS策略。如果删除默认的QoS策略,不会对现存的网络造成任何改变。

从数据库的角度看,在schema中定义了以下的对象:

  • QosPolicy: 直接映射到概念的策略资源.
  • QosNetworkPolicyBinding, QosPortPolicyBinding, QosFIPPolicyBinding: 定义Neutron资源和QoS策略之间的连接.
  • QosPolicyDefault: 定义每个project的默认 QoS 策略.
  • QosBandwidthLimitRule: 定义限制最大egress带宽的规则.
  • QosDscpMarkingRule: 定义为egress流量标记Differentiated Service位的规则.
  • QosMinimumBandwidthRule: 定义创建最小带宽限制的规则.

所有的数据库models定义在:

  • neutron.db.qos.models

QoS 版本化对象

对于QoS, 实现了以下的 Neutron 对象:

  • QosPolicy: 类似以上的定义,直接映射到概念策略资源.
  • QosPolicyDefault: 定义每个工程的默认 QoS 策略.
  • QosBandwidthLimitRule: 定义实例的带宽限制规则类型,表示为最大kbps和最大burst kbits。此规则还有一个方向参数定义流量的方向,从实例的视角。
  • QosDscpMarkingRule: 定义DSCP规则类型,表示为0到56之间的偶数。这些数值来自于IP头部的DiffServ字段,仅有一定量的配置是有效的。结果是,有效的DSCP规则类型列表为:0, 8, 10, 12, 14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34, 36, 38, 40, 46, 48, 和 56.
  • QosMinimumBandwidthRule: 定义最小保证带宽规则类型,由min_kbps参数表示。此规则有一个direction参数以设置流量的方向,来自实例的视角。仅实现了egress方向。

这些定义在:

  • neutron.objects.qos.policy
  • neutron.objects.qos.rule

对于QosPolicy Neutron 对象, 实现了以下的公共方法:

  • get_network_policy/get_port_policy/get_fip_policy: 返回关联到相应的Neutron资源的策略对象。
  • attach_network/attach_port/attach_floatingip: 关联策略到相应的Neutron资源.
  • detach_network/detach_port/detach_floatingip: 从相应Neutron资源解除策略关联.

除了属于QoS策略的数据库对象本身的字段外,表示策略的规则列表的对象也被添加了其它字段。要获得特定策略的所有规则列表,对象的消费者仅需通过以下的属性:

  • policy.rules

实现方式允许添加新的规则列表字段,而不修改或者少量修改策略对象本身。实现方式为内省现存可用的规则对象定义和在策略类中自动定义这些字段。

注意规则的加载不是lazy方式,这意味着在策略获取时,规则也都由数据库中获取出来。

对于QosRule对象,采用了可扩展的方式以允许容易的添加新规则类型的对象。为满足这一点,对所有类型通用的字段放入了一个基类中QoSRule,特定类型的规则继承了基类,只需实现额外的字段和一些其它小的变更。

注意QosRule基类没有注册到oslo.versionedobjects的注册表中,原因是不希望实例化“通用”的规则(建议,基础规则类标记为ABC)。

QoS对象依赖于一些原语数据库API方法,添加如下:

  • neutron.db.api: 如果需要,这些可重用以获得其它还没有对应版本化对象的models。
  • neutron.db.qos.api: 包含特定于QoS models的数据库定义.

RPC communication

RPC通信在参考后端驱动的详细实现在OpenStack官网的<rpc_callbacks.html>中进行了讨论。

更新流程如下:

  • 如果绑定到agent的port关联到QoS策略,ML2插件依赖ML2 QoS扩展驱动检测到此改变,通知agent相关port变更。agent调用get_device_details()处理通知,获取新的包含新qos_policy_id的port dict。每个设备的详细dict被传递到L2 agent扩展管理器,其传递到每个使能的扩展,包括QoS。QoS扩展看到port的一个新未知QoS策略,它使用ResourcesPullRpcApi从服务器获取策略的当前状态(及所有包含的规则)。之后,QoS扩展调用对应于agent的QoS驱动,以应用策略。

  • 对于浮动IP,实现了L3 agent扩展fip_qos。此扩展接收并处理router更新。对于每个更新,遍历关联与router的每个浮动IP,如果浮动IP具有关联的QoS策略,扩展使用ResourcesPullRpcApi从Neutron服务器获取策略详细信息。如果策略包含“bandwidth_limit”规则,扩展通过直接调用l3_tc_lib应用这些规则到合适的router设备。

  • 对于现存QoS策略的更新(包括任意策略或其规则变化),服务器通过ResourcesPushRpcApi接口推送新策略对象状态。此接口扇出串行化(dehydrated)对象到每个监听QoS策略更新的agent。如果agent之前见到过此策略(关联到维护的port或浮动IP之一),应用更新到port/浮动IP。否则,agent悄悄的忽略更新。

Agent 侧设计

实现了QoS功能的参考agent,可参见OpenStack官方网站的: l2_agent_extensions.html.

  • neutron.agent.l2.extensions.qos

    定义QoS L2 agent扩展。它接收handle_port 和 delete_port实现,传递到QoS agnet后端驱动(参见以下介绍)。此文件也定义了QosAgentDriver接口。注意:每个后端实现其自身的驱动。驱动处理与底层网络技术的低级别交互,QoS扩展处理对所有agents通用的操作。

对于 L3 agent:

  • neutron.agent.l3.extensions.fip_qos

    定义QoS L3 agent扩展。它实现L3 agent一侧的浮动IP限速。对于所有的routers,如果浮动IP具有QoS“bandwidth_limit”规则,相应的TC过滤器将添加到对于的router设备,此依赖于router的类型。

Agent 后端

当前,Open vSwitch,SR-IOV和Linux网桥 ML2驱动支持QoS。

每个agent后端定义一个QoS驱动,其实现QosAgentDriver接口:

  • Open vSwitch (QosOVSAgentDriver);
  • SR-IOV (QosSRIOVAgentDriver);
  • Linux bridge (QosLinuxbridgeAgentDriver).

Neutron后端,支持规则,流量方向(VM视角)列表:

+----------------------+----------------+----------------+----------------+
| Rule \ Backend       | Open vSwitch   | SR-IOV         | Linux Bridge   |
+----------------------+----------------+----------------+----------------+
| Bandwidth Limit      | Egress/Ingress | Egress (1)     | Egress/Ingress |
+----------------------+----------------+----------------+----------------+
| Minimum Bandwidth    | -              | Egress         | -              |
+----------------------+----------------+----------------+----------------+
| DSCP Marking         | Egress         | -              | Egress         |
+----------------------+----------------+----------------+----------------+

(1) 由于ip工具不支持最大burst参数,将其跳过.

Open vSwitch

Open vSwitch实现依赖于新的ovs_lib OVSBridge函数::

  • get_egress_bw_limit_for_port
  • create_egress_bw_limit_for_port
  • delete_egress_bw_limit_for_port
  • get_ingress_bw_limit_for_port
  • update_ingress_bw_limit_for_port
  • delete_ingress_bw_limit_for_port

通过设置port接口的ingress_policing_rate 和 ingress_policing_burst参数可有效的配置端口的egress带宽限制.

此方式不如linux-htb, Queues 和 OvS QoS profiles灵活,将在以后介绍,但要与openflow联合使用。

通过为port设置Queue和OVS QoS profile,linux-htb类型可有效的配置端口的ingress带宽限制。

Open vSwitch DSCP标记实现依赖于最近添加的ovs_agent_extension_api OVSAgentExtensionAPI去请求访问integration网桥功能:

  • add_flow
  • mod_flow
  • delete_flows
  • dump_flows_for

DSCP标记实际上由openflow规则配置到port上。

SR-IOV

SR-IOV带宽限制和最小带宽实现依赖于新的pci_lib函数:

  • set_vf_rate

正如函数名称所示,此限制应用与Virtual Function(VF)。此函数由一个参数"rate_type",其值可设置为"rate" 或 “min_tx_rate”,分别用于带宽限制和最小带宽控制。

ip link接口对于带宽限制有以下的局限:它使用Mbps作为带宽测量,而不是kbps,不支持浮点数。所以如果要设置限制到小于1000kbps时,它只能设置为1Mbps。如果设置值不能被均分为1000kbps,最终的限制值射入到最近的整数Mbps。

Linux bridge

Linux网桥实现依赖于新的tc_lib函数.

对于egress带宽限制规则:

  • set_filters_bw_limit
  • update_filters_bw_limit
  • delete_filters_bw_limit

通过在tc的ingress queueing discipline(qdisc)设置流量策略,可在tap端口配置egress带宽限制。关于ingress qdisc的详细信息请参考lartc how-to. 使用ingress qdisc配置egress带宽的原因是,tc工作于由网桥内部视角的流量。所以,通过tap接口到达网桥的流量,实际上就是从Nneutron端口发出的流量。

此实现与Open vSwitch通过ingress_policing_rate 和 ingress_policing_burst配置端口一致。

对于ingress带宽限制规则:

  • set_tbf_bw_limit
  • update_tbf_bw_limit
  • delete_tbf_bw_limit

ingress带宽限制通过设置简单的tc-tbf queueing discipline(qdisc)配置到tap端口上。它需要宿主机内核配置的HZ参数。此值是计算设置到tc的最小burst值所需要的。关于如何计算可参见:http://unix.stackexchange.com/a/100797. 此解决方案类似于 Open vSwitch 的实现.

Linux bridge DSCP标记实现依赖于linuxbridge_extension_api去请求访问IptablesManager类,管理iptables中的“mangle”表。

QoS 驱动设计

QoS框架非常灵活以支持任何的第三方厂商。要集成一个第三方的驱动(仅需要实现QoS create/update/delete API调用),需要实现“neutron.services.qos.drivers.base”类,并在核心插件或mechanism驱动加载时注册此驱动,参见以下示例的注册方法:

neutron.services.qos.drivers.openvswitch.driver

:
厂商必须实现所有的功能,Neutron QoS框架仅作为一个接口传递接收到的QoS API请求,及在数据库中保存API操作。

L3 agent “fip_qos” 扩展没有驱动实现,它直接为所有的router类型使用“l3_tc_lib”。

配置Configuration

要使能服务,遵循以下的步骤:

服务器侧:

  • 在service_plugins中使能qos服务;
  • 对于ml2,添加 ‘qos’ 到 [ml2] 段中的extension_drivers;
  • 对于 L3 浮动IP QoS, 添加 ‘qos’ 和 ‘router’ 到 service_plugins.

agent侧 (OVS):

  • 添加 ‘qos’ 到 [agent] 端的 extensions中.

L3 agent侧:

  • 对于浮动 IPs QoS 支持, 添加 ‘fip_qos’ 到 [agent] 端的extensions中.

测试方案

所有添加或扩展的代码都应经过合理的测试。

Neutron 对象objects

验证Neutron对象的基础测试类,当引入新对象类型时,以一种允许代码重用的方式实现。

由两个测试类用于此目的:

  • BaseObjectIfaceTestCase: 验证基本对象操作的类(大部分是CRUD),但不涉及数据库层操作。
  • BaseDbObjectTestCase: 验证models的一些操作的类,涉及数据库层操作.

每个在以上类基础上实现的新对象,被期望继承现有测试用例,或者进行重新实现,前提是这些对象的实现是合理的。特殊的测试类可以很好的按照需要扩展测试用例集(例如,如果你在所有Neutron对象的基础通用语法之上,为你的对象实现添加额外的方法,你需要为这些方法定义新的测试用例)。

功能测试

对ovs_lib设置端口带宽限制新增了以下测试内容:

  • neutron.tests.functional.agent.test_ovs_lib

为使用tc_lib进行端口带宽限制新增了以下功能测试:

  • neutron.tests.functional.agent.linux.test_tc_lib

test_l3_tc_lib的新功能测试,在router浮动IP地址相关设备设置TC过滤器的内容在以下类中:

  • neutron.tests.functional.agent.linux.test_l3_tc_lib

L3 agent 浮动IP限速的新功能测试如下:

  • neutron.tests.functional.agent.l3.extensions.test_fip_qos_extension

API 测试

ports, networks, policies, 和 rules的基础CRUD操作的API测试添加在以下类:

  • neutron-tempest-plugin.api.test_qos
### OpenStack Cinder 块存储功能与架构详解 #### 功能概述 OpenStack Cinder 是 OpenStack 平台中的块存储服务组件,主要职责是为虚拟机实例提供可扩展的、持久化的块级存储设备。通过抽象底层硬件细节,Cinder 能够支持多种后端存储技术并统一管理这些资源[^1]。 Cinder 的核心功能包括但不限于以下几个方面: - **动态分配和释放存储卷**:用户可以通过 API 或仪表板请求创建新的存储卷或将不再使用的卷删除。 - **挂载/卸载存储卷到虚拟机**:允许将存储卷附加至指定的虚拟机实例以便数据访问,或者从实例分离以停止使用。 - **快照能力**:支持基于时间点的数据备份操作——即创建存储卷的状态副本(快照),以及由快照恢复原始状态或生成新卷。 - **容量管理和性能优化**:依据实际业务负载调整资源配置策略;同时具备 QoS (Quality of Service) 控制选项来保障特定应用的服务水平协议(SLA)[^2]。 #### 技术架构分析 从整体上看,Cinder采用了一种分层设计模式,其主要包括三个层次: ##### 接口层(API Layer) 这是最顶层也是对外暴露的部分,它定义了一系列RESTful风格的操作接口供外部调用者交互.比如创建volume,capture snapshot等等. ##### 驱动管理层(Driver Management Layer) 位于中间位置的是驱动管理层,这一部分承担着连接上层API命令下达同下层具体物理实现之间的桥梁角色.这里预置了很多针对不同厂商设备的标准插件程序(plugins),使得整个系统具有很强的兼容性和灵活性.[^1] ##### 存储后端层(Storage Backend Layer) 最后就是具体的执行层面也就是各种类型的存储介质所在之处.Cinder本身并不直接处理任何真正的磁盘读写动作而是依靠各个独立开发出来的plugin去完成相应的工作流程.目前支持广泛的商业解决方案和技术标准如LVM(Local Volume Manager), NFS(Network File System), iSCSI(Internet Small Computer Systems Interface), Ceph分布式文件系统以及其他第三方专有产品等.[^2] ```python # 创建一个新的卷示例代码 from cinderclient import client as cinder_client def create_volume(auth_url, username, password, project_name, size=1): keystone = KeystoneSession() session = keystone.get_session(username=username, password=password, auth_url=auth_url, project_name=project_name) cinder = cinder_client.Client('3', session=session) new_vol = cinder.volumes.create(size=size) return new_vol.id ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值