HOME 首頁(yè)
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營(yíng)
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    centos創(chuàng)建快照(centos 快照)

    發(fā)布時(shí)間:2023-04-14 07:29:00     稿源: 創(chuàng)意嶺    閱讀: 88        

    大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于centos創(chuàng)建快照的問(wèn)題,以下是小編對(duì)此問(wèn)題的歸納整理,讓我們一起來(lái)看看吧。

    開始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請(qǐng)撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    centos創(chuàng)建快照(centos 快照)

    一、vmware擴(kuò)展硬盤空間請(qǐng)打開父虛擬磁盤

    VMX虛擬機(jī)環(huán)境下CentOS擴(kuò)展home磁盤空間

    需要?jiǎng)h除快照,如果快照刪除過(guò)程中取消了,vmware點(diǎn)擊擴(kuò)展時(shí)會(huì)出錯(cuò)提示:

    “在部分鏈上無(wú)法執(zhí)行所調(diào)用的函數(shù)。請(qǐng)打開父虛擬磁盤”

    這是因?yàn)橹暗目煺談h除時(shí),有一些文件沒有刪除干凈,這個(gè)時(shí)候重新創(chuàng)建一個(gè)快照,然后刪除快照,耐心等待刪除完,就可以擴(kuò)展??赡軙?huì)有warning,不用管,直接輸入 y。

    VolGroup根據(jù)自己df -h展示出來(lái)的磁文件系統(tǒng)名稱替換,比如我的電腦是centos,想把擴(kuò)展磁盤放到home目錄的分區(qū)下,通過(guò)df -h查看到home的文件系統(tǒng)是 /dev/mapper/centos-home ,那就可以將VolGroup替換為/dev/mapper/centos-home,其他盤一樣操作。

    二、centos中虛擬機(jī)克隆和快照的區(qū)別

    區(qū)別:虛擬機(jī)克隆只是把某個(gè)虛擬機(jī)復(fù)制出來(lái)多一個(gè)而已,而快照是把某個(gè)虛擬機(jī)某個(gè)時(shí)刻的狀態(tài)刻錄出來(lái),當(dāng)這個(gè)虛擬機(jī)壞了,你就可以通過(guò)快照回復(fù)它之前的時(shí)刻的狀態(tài)了,就可以繼續(xù)用。

    三、如何使用RHEL/CentOS 7安裝創(chuàng)建和管理LXC

    CentOS7.0中一個(gè)最主要的改變,就是切換到了systemd。它用于替代紅帽企業(yè)版Linux前任版本中的SysV和Upstart,對(duì)系統(tǒng)和服務(wù)進(jìn)行管理。systemd兼容SysV和Linux標(biāo)準(zhǔn)組的啟動(dòng)腳本。Systemd是一個(gè)Linux操作系統(tǒng)下的系統(tǒng)和服務(wù)管理器。它被設(shè)計(jì)成向后兼容SysV啟動(dòng)腳本,并提供了大量的特性,如開機(jī)時(shí)平行啟動(dòng)系統(tǒng)服務(wù),按需啟動(dòng)守護(hù)進(jìn)程,支持系統(tǒng)狀態(tài)快照,或者基于依賴的服務(wù)控制邏輯。先前的使用SysV初始化或Upstart的紅帽企業(yè)版Linux版本中,使用位于/etc/rc.d/init.d/目錄中的bash初始化腳本進(jìn)行管理。而在RHEL7/CentOS7中,這些啟動(dòng)腳本被服務(wù)單元取代了。服務(wù)單元以.service文件擴(kuò)展結(jié)束,提供了與初始化腳本同樣的用途。要查看、啟動(dòng)、停止、重啟、啟用或者禁用系統(tǒng)服務(wù),你要使用systemctl來(lái)代替舊的service命令。注:為了向后兼容,舊的service命令在CentOS7中仍然可用,它會(huì)重定向所有命令到新的systemctl工具。使用systemctl來(lái)啟動(dòng)/停止/重啟服務(wù)要啟動(dòng)一個(gè)服務(wù),你需要使用如下命令:#systemctlstarthttpd.service這會(huì)啟動(dòng)httpd服務(wù),就我們而言,ApacheHTTP服務(wù)器。要停掉它,需要以root身份使用該命令:#systemctlstophttpd.service要重啟,你可以使用restart選項(xiàng),如果服務(wù)在運(yùn)行中,它將重啟服務(wù);如果服務(wù)不在運(yùn)行中,它將會(huì)啟動(dòng)。你也可以使用try-start選項(xiàng),它只會(huì)在服務(wù)已經(jīng)在運(yùn)行中的時(shí)候重啟服務(wù)。同時(shí),reload選項(xiàng)你也可以有,它會(huì)重新加載配置文件。#systemctlrestarthttpd.service#systemctltry-restarthttpd.service#systemctlreloadhttpd.service我們例子中的命令看起來(lái)會(huì)像下面這樣:檢查服務(wù)狀態(tài)要檢查服務(wù)狀態(tài),你可以使用status選項(xiàng),看這里:#systemctlstatushttpd.service輸出結(jié)果就像這樣:它會(huì)告訴你運(yùn)行中的服務(wù)的方方面面。使用啟用/禁用服務(wù)來(lái)控制開機(jī)啟動(dòng)你也可以使用enable/disable選項(xiàng)來(lái)控制一個(gè)服務(wù)是否開機(jī)啟動(dòng),命令如下:#systemctlenablehttpd.service#systemctldisablehttpd.service

    四、ceph 塊存儲(chǔ)rbd的使用,使用普通戶創(chuàng)建和掛載rbd

    ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool create rbd1-data 32 32

    pool 'rbd1-data' created

    ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool ls

    device_health_metrics

    mypool

    .rgw.root

    default.rgw.log

    default.rgw.control

    default.rgw.meta

    myrbd1

    cephfs-metadata

    cephfs-data

    rbd1-data

    在存儲(chǔ)池啟用rbd:

    ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool application enable rbd1-data rbd

    enabled application 'rbd' on pool 'rbd1-data'

    初始化存儲(chǔ)池:

    ceph@ceph-deploy:~/ceph-cluster$ rbd pool init -p rbd1-data

    創(chuàng)建存儲(chǔ)池映像文件:

    映像文件的管理都是rbd命令來(lái)執(zhí)行,rbd可對(duì)映像執(zhí)行創(chuàng)建,查看,刪除,以及創(chuàng)建快照,克隆映像,刪除快照,查看快照,快照回滾等管理操作

    ceph@ceph-deploy:~/ceph-cluster$ rbd create data-img1 --size 3G --pool rbd1-data --image-format 2 --image-feature layering

    ceph@ceph-deploy:~/ceph-cluster$ rbd create data-img2 --size 5G --pool rbd1-data --image-format 2 --image-feature layering

    查看存儲(chǔ)池映像文件

    ceph@ceph-deploy:~/ceph-cluster$ rbd list --pool rbd1-data

    data-img1

    data-img2

    列出映像更多信息

    ceph@ceph-deploy:~/ceph-cluster$ rbd list --pool rbd1-data -l

    NAME      SIZE  PARENT  FMT  PROT  LOCK

    data-img1  3 GiB            2           

    data-img2  5 GiB            2

    ceph@ceph-deploy:~/ceph-cluster$ rbd --image data-img1 --pool rbd1-data info

    rbd image 'data-img1':

    size 3 GiB in 768 objects

    order 22 (4 MiB objects)

    snapshot_count: 0

    id: 3ab91c6a62f5

    block_name_prefix: rbd_data.3ab91c6a62f5

    format: 2

    features: layering

    op_features:

    flags:

    create_timestamp: Thu Sep  2 06:48:11 2021

    access_timestamp: Thu Sep  2 06:48:11 2021

    modify_timestamp: Thu Sep  2 06:48:11 2021

    ceph@ceph-deploy:~/ceph-cluster$ rbd --image data-img1 --pool rbd1-data info --format json --pretty-format

    {

        "name": "data-img1",

        "id": "3ab91c6a62f5",

        "size": 3221225472,

        "objects": 768,

        "order": 22,

        "object_size": 4194304,

        "snapshot_count": 0,

        "block_name_prefix": "rbd_data.3ab91c6a62f5",

        "format": 2,

        "features": [

            "layering"

        ],

        "op_features": [],

        "flags": [],

        "create_timestamp": "Thu Sep  2 06:48:11 2021",

        "access_timestamp": "Thu Sep  2 06:48:11 2021",

        "modify_timestamp": "Thu Sep  2 06:48:11 2021"

    }

    鏡像(映像)特性的啟用和禁用

    特性包括:

    layering支持分層快照特性  默認(rèn)開啟

    striping條帶化

    exclusive-lock:支持獨(dú)占鎖  默認(rèn)開啟

    object-map 支持對(duì)象映射,加速數(shù)據(jù)導(dǎo)入導(dǎo)出及已用空間特性統(tǒng)計(jì)等  默認(rèn)開啟

    fast-diff 快速計(jì)算對(duì)象和快找數(shù)據(jù)差異對(duì)比  默認(rèn)開啟

    deep-flatten  支持快照扁平化操作  默認(rèn)開啟

    journaling  是否記錄日志

    開啟:

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable object-map --pool rbd1-data --image data-img1

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable fast-diff --pool rbd1-data --image data-img1

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable exclusive-lock --pool rbd1-data --image data-img1

    禁止:

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable object-map --pool rbd1-data --image data-img1

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable fast-diff --pool rbd1-data --image data-img1

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable exclusive-lock --pool rbd1-data --image data-img1

    客戶端使用塊設(shè)備:

    首先要安裝ceph-comman,配置授權(quán)

    [root@ceph-client1 ceph_data]# yum install -y http://mirrors.aliyun.com/ceph/rpm-octopus/el7/noarch/ceph-release-1-1.el7.noarch.rpm

    [root@ceph-client1 ceph_data]# yum install ceph-common -y 

    授權(quán),

    ceph@ceph-deploy:/etc/ceph$ sudo -i

    root@ceph-deploy:~# cd /etc/ceph/           

    root@ceph-deploy:/etc/ceph# scp ceph.conf ceph.client.admin.keyring root@192.168.241.21:/etc/ceph

    ubuntu系統(tǒng):

    root@ceph-client2:/var/lib/ceph# apt install -y ceph-common

    root@ceph-deploy:/etc/ceph# sudo scp ceph.conf ceph.client.admin.keyring ceph@192.168.241.22:/tmp

    ceph@192.168.241.22's password:

    ceph.conf                                                                                                                  100%  270  117.7KB/s  00:00   

    ceph.client.admin.keyring

    root@ceph-client2:/var/lib/ceph# cd /etc/ceph/

    root@ceph-client2:/etc/ceph# cp /tmp/ceph.c* /etc/ceph/

    root@ceph-client2:/etc/ceph# ll /etc/ceph/

    total 20

    drwxr-xr-x  2 root root 4096 Aug 26 07:58 ./

    drwxr-xr-x 84 root root 4096 Aug 26 07:49 ../

    -rw-------  1 root root  151 Sep  2 07:24 ceph.client.admin.keyring

    -rw-r--r--  1 root root  270 Sep  2 07:24 ceph.conf

    -rw-r--r--  1 root root  92 Jul  8 07:17 rbdmap

    -rw-------  1 root root    0 Aug 26 07:58 tmpmhFvZ7

    客戶端映射鏡像

    root@ceph-client2:/etc/ceph# rbd -p rbd1-data map data-img1

    rbd: sysfs write failed

    RBD image feature set mismatch. You can disable features unsupported by the kernel with "rbd feature disable rbd1-data/data-img1 object-map fast-diff".

    In some cases useful info is found in syslog - try "dmesg | tail".

    rbd: map failed: (6) No such device or address

    root@ceph-client2:/etc/ceph# rbd feature disable rbd1-data/data-img1 object-map fast-diff

    root@ceph-client2:/etc/ceph# rbd -p rbd1-data map data-img1

    /dev/rbd0

    root@ceph-client2:/etc/ceph# rbd -p rbd1-data map data-img2

    格式化塊設(shè)備admin映射映像文件

    查看塊設(shè)備

    root@ceph-client2:/etc/ceph# lsblk

    NAME  MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

    sda      8:0    0  20G  0 disk

    └─sda1  8:1    0  20G  0 part /

    sr0    11:0    1 1024M  0 rom 

    rbd0  252:0    0    3G  0 disk

    rbd1  252:16  0    5G  0 disk

    root@ceph-client2:/etc/ceph# mkfs.ext4 /dev/rbd1

    mke2fs 1.44.1 (24-Mar-2018)

    Discarding device blocks: done                           

    Creating filesystem with 1310720 4k blocks and 327680 inodes

    Filesystem UUID: 168b99e6-a3d7-4dc6-9c69-76ce8b42f636

    Superblock backups stored on blocks:

    32768, 98304, 163840, 229376, 294912, 819200, 884736

    Allocating group tables: done                           

    Writing inode tables: done                           

    Creating journal (16384 blocks): done

    Writing superblocks and filesystem accounting information: done

    掛在掛設(shè)備

    root@ceph-client2:/etc/ceph# mkdir /data/data1 -p

    root@ceph-client2:/etc/ceph# mount /dev/rbd1 /data/data1/

    驗(yàn)證寫入數(shù)據(jù):

    root@ceph-client2:/etc/ceph# cd /data/data1/

    root@ceph-client2:/data/data1# cp /var/log/ . -r

    root@ceph-client2:/data/data1# ceph df

    --- RAW STORAGE ---

    CLASS    SIZE    AVAIL    USED  RAW USED  %RAW USED

    hdd    220 GiB  213 GiB  7.4 GiB  7.4 GiB      3.37

    TOTAL  220 GiB  213 GiB  7.4 GiB  7.4 GiB      3.37

    --- POOLS ---

    POOL                  ID  PGS  STORED  OBJECTS    USED  %USED  MAX AVAIL

    device_health_metrics  1    1      0 B        0      0 B      0    66 GiB

    mypool                  2  32  1.2 MiB        1  3.5 MiB      0    66 GiB

    .rgw.root              3  32  1.3 KiB        4  48 KiB      0    66 GiB

    default.rgw.log        4  32  3.6 KiB      209  408 KiB      0    66 GiB

    default.rgw.control    5  32      0 B        8      0 B      0    66 GiB

    default.rgw.meta        6    8      0 B        0      0 B      0    66 GiB

    myrbd1                  7  64  829 MiB      223  2.4 GiB  1.20    66 GiB

    cephfs-metadata        8  32  563 KiB      23  1.7 MiB      0    66 GiB

    cephfs-data            9  64  455 MiB      129  1.3 GiB  0.66    66 GiB

    rbd1-data              10  32  124 MiB      51  373 MiB  0.18    66 GiB

    創(chuàng)建普通用戶并授權(quán)

    root@ceph-deploy:/etc/ceph# ceph auth add client.huahualin mon "allow rw"  osd "allow rwx pool=rbd1-data"

    added key for client.huahualin

    root@ceph-deploy:/etc/ceph# ceph-authtool --create-keyring ceph.client.huahualin.keyring

    creating ceph.client.huahualin.keyring

    root@ceph-deploy:/etc/ceph# ceph auth  get client.huahualin -o ceph.client.huahualin.keyring

    exported keyring for client.huahualin

    使用普通用戶創(chuàng)建rbd

    root@ceph-deploy:/etc/ceph# scp ceph.conf ceph.client.huahualin.keyring  root@192.168.241.21:/etc/ceph/

    普通用戶映射鏡像

    [root@ceph-client1 ~]# rbd --user huahualin --pool rbd1-data map data-img2

    /dev/rbd0

    使用普通用戶掛載rbd

    [root@ceph-client1 ~]# mkfs.ext4 /dev/rbd0

    [root@ceph-client1 ~]# fdisk -l /dev/rbd0

    [root@ceph-client1 ~]# mkdir /data

    [root@ceph-client1 ~]# mount  /dev/rbd0 /data

    [root@ceph-client1 ~]# df -Th

    Filesystem              Type      Size  Used Avail Use% Mounted on

    devtmpfs                devtmpfs  475M    0  475M  0% /dev

    tmpfs                  tmpfs    487M    0  487M  0% /dev/shm

    tmpfs                  tmpfs    487M  7.7M  479M  2% /run

    tmpfs                  tmpfs    487M    0  487M  0% /sys/fs/cgroup

    /dev/mapper/centos-root xfs        37G  1.7G  36G  5% /

    /dev/sda1              xfs      1014M  138M  877M  14% /boot

    tmpfs                  tmpfs      98M    0  98M  0% /run/user/0

    192.168.241.12:6789:/  ceph      67G  456M  67G  1% /ceph_data

    /dev/rbd0              ext4      4.8G  20M  4.6G  1% /data

    掛載rbd后會(huì)自動(dòng)加載模塊libceph.ko

    [root@ceph-client1 ~]# lsmod |grep ceph

    ceph                  363016  1

    libceph              306750  2 rbd,ceph

    dns_resolver          13140  1 libceph

    libcrc32c              12644  4 xfs,libceph,nf_nat,nf_conntrack

    [root@ceph-client1 ~]# modinfo libceph

    filename:      /lib/modules/3.10.0-1160.el7.x86_64/kernel/net/ceph/libceph.ko.xz

    license:        GPL

    description:    Ceph core library

    author:        Patience Warnick <patience@newdream.net>

    author:        Yehuda Sadeh <yehuda@hq.newdream.net>

    author:        Sage Weil <sage@newdream.net>

    retpoline:      Y

    rhelversion:    7.9

    srcversion:    D4ABB648AE8130ECF90AA3F

    depends:        libcrc32c,dns_resolver

    intree:        Y

    vermagic:      3.10.0-1160.el7.x86_64 SMP mod_unload modversions

    signer:        CentOS Linux kernel signing key

    sig_key:        E1:FD:B0:E2:A7:E8:61:A1:D1:CA:80:A2:3D:CF:0D:BA:3A:A4:AD:F5

    sig_hashalgo:  sha256

    如果鏡像空間不夠用了,我們可以做鏡像空間的拉伸,一般不建議減小

    查看rdb1-data存儲(chǔ)池的鏡像

    [root@ceph-client1 ~]# rbd ls -p rbd1-data -l

    NAME      SIZE  PARENT  FMT  PROT  LOCK

    data-img1  3 GiB            2           

    data-img2  5 GiB            2 

    比如data-img2空間不夠了,需要拉伸,將data-img2擴(kuò)展到8G

    [root@ceph-client1 ~]# rbd resize --pool rbd1-data --image data-img2 --size  8G

    Resizing image: 100% complete...done.

    可以通過(guò)fdisk -l查看鏡像空間大小,但是通過(guò)df -h就看不到

    [root@ceph-client1 ~]# lsblk

    NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

    sda              8:0    0  40G  0 disk

    ├─sda1            8:1    0    1G  0 part /boot

    └─sda2            8:2    0  39G  0 part

      ├─centos-root 253:0    0  37G  0 lvm  /

      └─centos-swap 253:1    0    2G  0 lvm  [SWAP]

    sr0              11:0    1 1024M  0 rom 

    rbd0            252:0    0    8G  0 disk /data

    [root@ceph-client1 ~]# fdisk -l /dev/rbd0

    Disk /dev/rbd0: 8589 MB, 8589934592 bytes, 16777216 sectors

    Units = sectors of 1 * 512 = 512 bytes

    Sector size (logical/physical): 512 bytes / 512 bytes

    I/O size (minimum/optimal): 4194304 bytes / 4194304 bytes

    將掛載設(shè)置開機(jī)啟動(dòng)

    [root@ceph-client1 ~]# vi /etc/rc.d/rc.local

    rbd --user huahualin --pool rbd1-data map data-img2

    mount /dev/rbd0 /data

    [root@ceph-client1 ~]# chmod a+x  /etc/rc.d/rc.local

    [root@ceph-client1 ~]# reboot

    以上就是關(guān)于centos創(chuàng)建快照相關(guān)問(wèn)題的回答。希望能幫到你,如有更多相關(guān)問(wèn)題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    excel快照功能(excel保存快照在哪)

    kms激活命令(office kms激活命令)

    杭州女網(wǎng)紅saya(杭州女網(wǎng)紅瞞著CEO男友)

    嘉興園林景觀設(shè)計(jì)院(嘉興園林景觀設(shè)計(jì)院怎么樣)

    免費(fèi)簽名logo設(shè)計(jì)(簽名logo設(shè)計(jì)在線生成)