标签:follow 创建 space ofo 节点 vcpu tde conf 默认
1、云计算的本质在于将硬件资源软件化,以达到快速按需交付的效果,最基本的计算、存储和网络基础元素并没有因此改变。就计算而言,CPU、RAM 和 DISK等依旧是必不可少的核心资源。
从源代码和数据库相关表可以得出,Nova 统计计算节点的四类计算资源:
CPU: 包括 vcpus(节点物理 cpu 总线程数), vcpus_used(该节点虚拟机的 vcpu 总和)
RAM: 包括 memory_mb(该节点总 ram),memory_mb_used(该节点虚拟机的 ram 总和),free_ram_mb(可用 ram) Note: memory_mb = memory_mb_used + free_ram_mb
DISK:local_gb(该节点虚拟机的总可用 disk),local_gb_used(该节点虚拟机 disk 总和),free_disk_gb(可用 disk) Note:local_gb = local_gb_used + free_disk_gb*
其它:PCI 设备、CPU 拓扑、NUMA 拓扑和 Hypervisor 等信息
从代码可以看出,Nova 每分钟统计一次资源,方式如下:
CPU
vcpus: libvirt 中 get_Info()
vcpu_used: 通过 libvirt 中 dom.vcpus() 从而统计该节点上所有虚拟机 vcpu 总和
RAM
memory: libvirt 中 get_Info()
memory_mb_used:先通过 /proc/meminfo 统计可用内存, 再用总内存减去可用内存得出(资源再统计时会重新计算该值)
DISK
local_gb: os.statvfs(CONF.instances_path)
local_gb_used: os.statvfs(CONF.instances_path)(资源再统计时会重新计算该值)
其它
hypervisor 相关信息:均通过 libvirt 获取
PCI: libvirt 中 listDevices(‘pci’, 0)
NUMA: livirt 中 getCapabilities()
那么问题来了,按照上述收集资源的方式,free_ram_mb, free_disk_gb 不可能为负数。Nova-compute 在上报资源至数据库前,还根据该节点上的虚拟机又做了一次资源统计。
为什么需再次统计 RAM 资源?宿主机的内存不只是分配给虚拟机,还有肩负其他应用,因此必须重新统计 RAM 资源。
统计的方式为:
free_memory = total_memory - CONF.reserved_host_memory_mb - 虚拟机理论内存总和
CONF.reserved_host_memory_mb:内存预留,比如预留给系统或其它应用
虚拟机理论内存总和:即所有虚拟机 flavor 中的内存总和 free_disk_gb = local_gb - CONF.reserved_host_disk_mb / 1024 - 虚拟机理论磁盘总和
nova.scheduler.filters.ram_filter.BaseRamFilter class BaseRamFilter(filters.BaseHostFilter): def host_passes(self, host_state, spec_obj): """Only return hosts with sufficient available RAM.""" requested_ram = spec_obj.memory_mb free_ram_mb = host_state.free_ram_mb total_usable_ram_mb = host_state.total_usable_ram_mb if not total_usable_ram_mb >= requested_ram: LOG.debug("%(host_state)s does not have %(requested_ram)s MB " "usable ram before overcommit, it only has " "%(usable_ram)s MB.", {‘host_state‘: host_state, ‘requested_ram‘: requested_ram, ‘usable_ram‘: total_usable_ram_mb}) return False ram_allocation_ratio = self._get_ram_allocation_ratio(host_state, spec_obj) memory_mb_limit = total_usable_ram_mb * ram_allocation_ratio used_ram_mb = total_usable_ram_mb - free_ram_mb usable_ram = memory_mb_limit - used_ram_mb if not usable_ram >= requested_ram: LOG.debug("%(host_state)s does not have %(requested_ram)s MB " "usable ram, it only has %(usable_ram)s MB usable ram.", {‘host_state‘: host_state, ‘requested_ram‘: requested_ram, ‘usable_ram‘: usable_ram}) return False host_state.limits[‘memory_mb‘] = memory_mb_limit return True
为什么要重新统计 DISK 资源?原因与 RAM 大致相同。为了节省空间, qemu-kvm 常用 QCOW2 格式镜像,以创建 DISK 大小为 100G 的虚拟机为例,虚拟机创建后,其镜像文件往往只有几百 KB,当有大量数据写入时磁盘时,宿主机上对应的虚拟机镜像文件会迅速增大。而 os.statvfs 统计的是虚拟机磁盘当前使用量,并不能反映潜在使用量。因此必须重新统计 DISK 资源。
统计的方式为:
free_disk_gb = local_gb - CONF.reserved_host_disk_mb / 1024 - 虚拟机理论磁盘总和
CONF.reserved_host_disk_mb:磁盘预留
虚拟机理论磁盘总和:即所有虚拟机 flavor 中得磁盘总和
nova.scheduler.filters.disk_filter.DiskFilter class DiskFilter(filters.BaseHostFilter):: def _get_disk_allocation_ratio(self, host_state, spec_obj): return host_state.disk_allocation_ratio def host_passes(self, host_state, spec_obj): """Filter based on disk usage.""" requested_disk = (1024 * (spec_obj.root_gb + spec_obj.ephemeral_gb) + spec_obj.swap) free_disk_mb = host_state.free_disk_mb total_usable_disk_mb = host_state.total_usable_disk_gb * 1024 if total_usable_disk_mb < requested_disk: LOG.debug("%(host_state)s does not have %(requested_disk)s " "MB usable disk space before overcommit, it only " "has %(physical_disk_size)s MB.", {‘host_state‘: host_state, ‘requested_disk‘: requested_disk, ‘physical_disk_size‘: total_usable_disk_mb}) return False disk_allocation_ratio = self._get_disk_allocation_ratio( host_state, spec_obj) disk_mb_limit = total_usable_disk_mb * disk_allocation_ratio used_disk_mb = total_usable_disk_mb - free_disk_mb usable_disk_mb = disk_mb_limit - used_disk_mb if not usable_disk_mb >= requested_disk: LOG.debug("%(host_state)s does not have %(requested_disk)s MB " "usable disk, it only has %(usable_disk_mb)s MB usable " "disk.", {‘host_state‘: host_state, ‘requested_disk‘: requested_disk, ‘usable_disk_mb‘: usable_disk_mb}) return False disk_gb_limit = disk_mb_limit / 1024 host_state.limits[‘disk_gb‘] = disk_gb_limit return True
资源超配与调度
即使 free_ram_mb 或 free_disk_gb 为负,虚拟机依旧有可能创建成功。事实上,当 nova-scheduler 在调度过程中,某些 filter 允许资源超配,比如 CPU、RAM 和 DISK 等 filter,它们默认的超配比为:
CPU: CONF.cpu_allocation_ratio = 16
RAM: CONF.ram_allocation_ratio = 1.5
DISK: CONF.disk_allocation_ratio = 1.0
以 ram_filter 为例,在根据 RAM 过滤宿主机时,过滤的原则为:
memory_limit = total_memory * ram_allocation_ratio
used_memory = total_memory - free_memory
memory_limit - used_memory < flavor[‘ram‘],表示内存不足,过滤该宿主机;否则保留该宿主机。
宿主机 RAM 和 DISK 的使用率往往要小于虚拟机理论使用的 RAM 和 DISK,在剩余资源充足的条件下,libvirt 将成功创建虚拟机。
内存和磁盘超配虽然能提供更多数量的虚拟机,当该宿主机上大量虚拟机的负载都很高时,轻着影响虚拟机性能,重则引起 qemu-kvm 相关进程被杀,即虚拟机被关机。
因此对于线上稳定性要求高的业务,建议不要超配 RAM 和 DISK,但可适当超配 CPU。建议这几个参数设置为:
CPU: CONF.cpu_allocation_ratio = 4
RAM: CONF.ram_allocation_ratio = 1.0
DISK: CONF.disk_allocation_ratio = 1.0
RAM-Reserve: CONF.reserved_host_memory_mb = 2048
DISK-Reserve: CONF.reserved_host_disk_mb = 20480
标签:follow 创建 space ofo 节点 vcpu tde conf 默认
原文地址:https://www.cnblogs.com/gushiren/p/9512016.html