通过 libvirt 使用 Ceph RBD

libvirt 库是管理程序和软件应用间的一个虚拟机抽象层。有了 libvirt ,开发者和系统管理员只需要关注这些管理器的一个通用管理框架、通用 API 、和通用 shell 接口(即 virsh )就可以了,像:

  • QEMU/KVM

  • XEN

  • LXC

  • VirtualBox

  • 等等

Ceph 块设备支持 QEMU/KVM ,所以你可以在 Ceph 块设备之上运行能与 libvirt 交互的软件。下面的堆栈图解释了 libvirt 和 QEMU 如何通过 librbd 使用 Ceph 块设备。

libvirt 常见于为云解决方案提供 Ceph 块设备,像 OpenStack 、ClouldStack ,它们用 libvirt 和 QEMU/KVM 交互、 QEMU/KVM 再与 Ceph 块设备通过 librbd 交互。详情见块设备与 OpenStack块设备与 CloudStack 。关于如何安装见安装

你也可以通过 libvirtvirshlibvirt API 使用 Ceph 块设备,详情见 libvirt 虚拟化 API

要创建使用 Ceph 块设备的虚拟机,请看后面几段。具体应用时,我们用 libvirt-pool 作为存储池名、 client.libvirt 作为用户名、 new-libvirt-image 作为映像名,你可以任意命名,确保在后续过程中用自己的名字替换掉对应名字即可。

配置 Ceph

要把 Ceph 用于 libvirt ,执行下列步骤:

  1. 创建一存储池。本例用 libvirt-pool 作存储池名,配备了 128 个归置组。

    ceph osd pool create libvirt-pool 128 128
    

    验证存储池是否存在。

    ceph osd lspools
    
  2. rbd 工具初始化这个存储池以用于 RBD :

    rbd pool init <pool-name>
    
  3. 创建一 Ceph 用户( 0.9.7 版之前的话用 client.admin ),本例用 Ceph 用户名 client.libvirt 、且权限限制到 libvirt-pool

    ceph auth get-or-create client.libvirt mon 'profile rbd' osd 'profile rbd pool=libvirt-pool'
    

    验证名字是否存在。

    ceph auth ls
    

    注: libvirt 访问 Ceph 时将用 libvirt 作为 ID ,而不是 client.libvirt 。关于 ID 和名字不同的详细解释请参考用户管理——用户用户管理——命令行界面

  4. 用 QEMU 在 RBD 存储池中创建一映像。本例中映像名为 new-libvirt-image 、存储池为 libvirt-pool

    qemu-img create -f rbd rbd:libvirt-pool/new-libvirt-image 2G
    

    验证映像是否存在。

    rbd -p libvirt-pool ls
    

    注:你也可以用 rbd create 创建映像,但我们建议顺便确认下 QEMU 可正常运行。

Tip

另外,如果你想给这个客户端打开调试日志和管理套接字,你可以在 /etc/ceph/ceph.conf 里的相应段落加上:

[client.libvirt]
log file = /var/log/ceph/qemu-guest-$pid.log
admin socket = /var/run/ceph/$cluster-$type.$id.$pid.$cctid.asok

client.libvirt 段名应该与上面创建的 cephx 用户一致。另外,如果在用 SELinux 或 AppArmor ,它们可能会阻止客户端进程( qemu 调用 libvirt )的日志或管理套接字的写入操作( /var/log/ceph/var/run/ceph )。

准备虚拟机管理器

即使没 VM 管理器你也可以用 libvirt ,但是用 virt-manager 创建域更简单。

  1. 安装个虚拟机管理器,详情见 KVM/VirtManager

    sudo apt-get install virt-manager
    
  2. 下载一 OS 映像。

  3. 启动虚拟机管理器。

    sudo virt-manager
    

新建虚拟机

要用 virt-manager 创建 VM ,按下列步骤:

  1. 点击 Create New Virtual Machine 按钮。

  2. 为新虚拟机域命名,本例中我们用 libvirt-virtual-machine ,你可以任意命名,在后续命令行和配置实例中替换掉 libvirt-virtual-machine 即可。

    libvirt-virtual-machine
    
  3. 导入映像。

    /path/to/image/recent-linux.img
    

    注:导入一个近期映像,一些较老的映像未必能正确地重扫描虚拟设备。

  4. 配置并启动 VM 。

  5. virsh list 验证 VM 域存在。

    sudo virsh list
    
  6. 登入 VM ( root/root )

  7. 改配置让它使用 Ceph 前停止 VM 。

配置 VM

配置 VM 使用 Ceph 时,切记尽量用 virsh 。另外, virsh 命令通常需要 root 权限(如 sudo ),否则不会返回正确结果或提示你需要 root 权限, virsh 命令参考见 Virsh 命令参考

  1. virsh edit 打开配置文件。

    sudo virsh edit {vm-domain-name}
    

    <devices> 下应该有 <disk> 条目。

    <devices>
            <emulator>/usr/bin/kvm</emulator>
            <disk type='file' device='disk'>
                    <driver name='qemu' type='raw'/>
                    <source file='/path/to/image/recent-linux.img'/>
                    <target dev='vda' bus='virtio'/>
                    <address type='drive' controller='0' bus='0' unit='0'/>
            </disk>
    

    用你的 OS 映像路径取代 /path/to/image/recent-linux.img ,可利用较快的 virtio 总线的最低内核版本是 2.6.25 ,参见 Virtio

    重要:要用 sudo virsh edit 而非文本编辑器,如果你用文本编辑器编辑了 /etc/libvirt/qemu 下的配置文件, libvirt 未必能感知你做的更改。如果 /etc/libvirt/qemu 下的 XML 文件和 sudo virsh dumpxml {vm-domain-name} 输出结果内容不同, VM 可能会运行异常。

  2. 把你创建的 Ceph RBD 映像创建为 <disk> 条目。

    <disk type='network' device='disk'>
            <source protocol='rbd' name='libvirt-pool/new-libvirt-image'>
                    <host name='{monitor-host}' port='6789'/>
            </source>
            <target dev='vda' bus='virtio'/>
    </disk>
    

    用你的主机名替换 {monitor-host} 、可能还有存储池、映像名。你可以为 Ceph 监视器添加多条 <host>dev 属性是将出现在 VM 之 /dev 目录下的逻辑设备名,可选的 bus 属性是要模拟的磁盘类型。可用和驱动相关,如 ide 、 scsi 、 virtio 、 xen 、 usb 或 sata 。

    关于 <disk> 标签及其子标签和属性,详见硬盘

  3. 保存文件。

  4. 如果你的 Ceph 存储集群启用了 Ceph 认证(默认已启用),那么必须生成一个密钥。

    cat > secret.xml <<EOF
    <secret ephemeral='no' private='no'>
            <usage type='ceph'>
                    <name>client.libvirt secret</name>
            </usage>
    </secret>
    EOF
    
  5. 定义密钥。

    sudo virsh secret-define --file secret.xml
    <uuid of secret is output here>
    
  6. 获取 client.libvirt 密钥并把字符串保存于文件。

    ceph auth get-key client.libvirt | sudo tee client.libvirt.key
    
  7. 设置密钥的 UUID 。

    sudo virsh secret-set-value --secret {uuid of secret} --base64 $(cat client.libvirt.key) && rm client.libvirt.key secret.xml
    

    还必须手动设置密钥,把下面的 <auth> 条目添加到前面的 <disk> 标签内(用上一命令的输出结果替换掉 uuid 值)。

    sudo virsh edit {vm-domain-name}
    

    然后,把 <auth></auth> 标签加进域配置文件:

    ...
    </source>
    <auth username='libvirt'>
            <secret type='ceph' uuid='9ec59067-fdbc-a6c0-03ff-df165c0587b8'/>
    </auth>
    <target ...
    

    注:示例 ID 是 libvirt ,不是配置 Ceph 生成的 Ceph 名 client.libvirt ,确保你用的是 Ceph 名的 ID 部分。如果出于某些原因你需要更换密钥,必须先执行 sudo virsh secret-undefine {uuid} 、然后再执行 sudo virsh secret-set-value

总结

完成上面的配置后你就可以启动 VM 了,为确认 VM 和 Ceph 在通讯,你可以执行如下过程。

  1. 检查 Ceph 是否在运行:

    ceph health
    
  2. 检查 VM 是否在运行。

    sudo virsh list
    
  3. 检查 VM 是否在和 Ceph 通讯,用你的 VM 域名字替换 {vm-domain-name}

    sudo virsh qemu-monitor-command --hmp {vm-domain-name} 'info block'
    
  4. 检查一下 <target dev='hdb' bus='ide'/> 定义的设备是否出现在 /dev/proc/partitions 里。

    ls dev
    cat proc/partitions
    

如果看起来一切正常,你就可以在虚拟机内使用 Ceph 块设备了。