This shows you the differences between two versions of the page.
Next revision | Previous revision | ||
cephtest:cephtest2 [2018/01/10 15:34] moliver@uclv created |
cephtest:cephtest2 [2019/04/28 12:19] (current) moliver@uclv |
||
---|---|---|---|
Line 1: | Line 1: | ||
- | Cuando un OSD se corrompe por ruptura del disco | + | __**Cuando un OSD se corrompe por ruptura del disco**__ |
- | ============================================== | + | |
1. Usar los siguientes comandos para saber como esta configurado el arbol de OSD y los pool que hay en cada uno. | 1. Usar los siguientes comandos para saber como esta configurado el arbol de OSD y los pool que hay en cada uno. | ||
+ | |||
+ | <code> | ||
ceph osd tree | ceph osd tree | ||
ceph pg dump | ceph pg dump | ||
+ | </code> | ||
Es importante ver que no este comprometido el ratio de replicacion porque de estarlo se debe incrementar la capacidad lo antes posible. | Es importante ver que no este comprometido el ratio de replicacion porque de estarlo se debe incrementar la capacidad lo antes posible. | ||
- | 1a. Luego dedetectar el que se desea eliminar se debe quitarle el peso que tiene de almacenaje. | + | 1a. Luego de detectar el que se desea eliminar se debe quitarle el peso que tiene de almacenaje. |
- | ej: ceph osd crush reweight osd.7 0 | + | <code> |
+ | ceph osd crush reweight osd.7 0 | ||
+ | </code> | ||
2. Sacarlo de la lista de OSD activos. | 2. Sacarlo de la lista de OSD activos. | ||
osd out {osd-num} | osd out {osd-num} | ||
- | ej: ceph osd out 7 | + | |
+ | <code> | ||
+ | ceph osd out 7 | ||
+ | </code> | ||
Line 24: | Line 30: | ||
- | 4. Detener los OSD y desmontarlo del sistema de archivos. | + | 4. Detener los OSD y desmontarlo del sistema de archivos: stop ceph-osd id={osd-num} |
+ | |||
+ | <code> | ||
stop ceph-osd id={osd-num} | stop ceph-osd id={osd-num} | ||
- | ej: stop ceph-osd id={osd-num} | + | ceph-osd stop 7 |
- | ceph-osd stop 7 | + | umount /var/lib/ceph/osd/ceph-7 |
- | umount /var/lib/ceph/osd/ceph-7 | + | </code> |
+ | 5. [[cephtest:remove|NUEVO]] Eliminar el OSD del mapa CRSUH: ceph osd crush remove {name} | ||
- | 5. Eliminar el OSD del mapa CRSUH. | + | <code> |
- | ceph osd crush remove {name} | + | ceph osd crush remove osd.7 |
- | ej: ceph osd crush remove osd.7 | + | </code> |
- | 6. Eliminar las llaves de autentificacion. | + | 6. Eliminar las llaves de autentificacion: ceph auth del osd.{osd-num} |
- | ceph auth del osd.{osd-num} | + | <code> |
- | ej ceph auth del osd.7 | + | ceph auth del osd.7 |
+ | </code> | ||
- | 7. Eliminar el OSD del mapa de OSD's | + | 7. Eliminar el OSD del mapa de OSD's: ceph osd rm {osd-num} |
- | ceph osd rm {osd-num} | + | <code> |
- | ej: ceph osd rm 7 | + | ceph osd rm 7 |
+ | </code> | ||
- | 8. En este punto ya todo est· como si el OSD no hubiera existido. Se puede proceder a crear el nuevo. | ||
+ | 8. En este punto ya todo está como si el OSD no hubiera existido. Se puede proceder a crear el nuevo. | ||
- | Addicionando un nuevo espacio | + | |
- | ============================================== | + | __**Addicionando un nuevo espacio**__ |
+ | |||
1 Crear el OSD logicamente | 1 Crear el OSD logicamente | ||
+ | <code> | ||
ceph osd create | ceph osd create | ||
+ | </code> | ||
2 Crear el punto donde se va a montar el OSD | 2 Crear el punto donde se va a montar el OSD | ||
+ | <code> | ||
mkdir /var/lib/ceph/osd/ceph-7 | mkdir /var/lib/ceph/osd/ceph-7 | ||
+ | </code> | ||
3 Formatear el OSD (Se asume que ya esta la particion creada. De no estarlo se recomienda hacerlo con el parted) | 3 Formatear el OSD (Se asume que ya esta la particion creada. De no estarlo se recomienda hacerlo con el parted) | ||
+ | <code> | ||
mkfs -t xfs /dev/sdd1 | mkfs -t xfs /dev/sdd1 | ||
+ | </code> | ||
4 Montar la particion en el lugar asignado | 4 Montar la particion en el lugar asignado | ||
+ | <code> | ||
mount -o rw,relatime,inode64,logbsize=256k,delaylog,allocsize=4M /dev/sdd1 /var/lib/ceph/osd/ceph-7 | mount -o rw,relatime,inode64,logbsize=256k,delaylog,allocsize=4M /dev/sdd1 /var/lib/ceph/osd/ceph-7 | ||
+ | </code> | ||
- | 5 Crear las llames de autentificacion | + | 5 Crear las llaves de autentificacion |
+ | <code> | ||
ceph-osd -i 7 --mkfs --mkkey | ceph-osd -i 7 --mkfs --mkkey | ||
+ | </code> | ||
6 Adicionar las llaves y las reglas de acceso del OSD creado | 6 Adicionar las llaves y las reglas de acceso del OSD creado | ||
+ | <code> | ||
ceph auth add osd.7 osd 'allow *' mon 'allow rwx' -i /var/lib/ceph/osd/ceph-7/keyring | ceph auth add osd.7 osd 'allow *' mon 'allow rwx' -i /var/lib/ceph/osd/ceph-7/keyring | ||
+ | </code> | ||
- | 7 Adicionar el OSD al mapa del CRUSH | + | 7 Adicionar el OSD al mapa del CRUSH: ceph osd crush add {id-or-name} {weight} [{bucket-type}={bucket-name} ...] |
- | ceph osd crush add {id-or-name} {weight} [{bucket-type}={bucket-name} ...] | + | <code> |
- | ej: ceph osd crush add osd.7 1.45 host=compute1 | + | ceph osd crush add osd.7 1.45 host=compute1 |
+ | </code> | ||
8 Iniciar el proceso del OSD | 8 Iniciar el proceso del OSD | ||
+ | <code> | ||
start ceph-osd id=7 | start ceph-osd id=7 | ||
+ | </code> | ||
9 Comprobar que se halla integrado al esquema de replicacion y que se este replicando todo. | 9 Comprobar que se halla integrado al esquema de replicacion y que se este replicando todo. | ||
+ | <code> | ||
ceph -w | ceph -w | ||
+ | </code> | ||
ref: | ref: | ||
Line 91: | Line 120: | ||
- | Exportar el mapa CRUSH | + | __**Exportar el mapa CRUSH**__ |
- | =============================================== | + | <code> |
ceph osd getcrushmap -o salida | ceph osd getcrushmap -o salida | ||
crushtool -d salida -o salida.decompile | crushtool -d salida -o salida.decompile | ||
+ | </code> | ||
+ | **__Asignado un grupo de discos a un pool__** | ||
- | Asignado un grupo de discos a un pool | ||
- | ================================================== | ||
Normalmente cuando se adiciona OSD a una estrucutra ya en funcionamiento se ve asi: | Normalmente cuando se adiciona OSD a una estrucutra ya en funcionamiento se ve asi: | ||
+ | <code> | ||
$ ceph osd tree | $ ceph osd tree | ||
# id weight type name up/down reweight | # id weight type name up/down reweight | ||
Line 116: | Line 146: | ||
2 0.03 osd.2 up 1 | 2 0.03 osd.2 up 1 | ||
5 0.03 osd.5 up 1 | 5 0.03 osd.5 up 1 | ||
+ | </code> | ||
Pero si se tienen discos tipo SSD y discos SATA es comprensible que se deseen usar en casos separados. Para eso deben estar en pools distintos. | Pero si se tienen discos tipo SSD y discos SATA es comprensible que se deseen usar en casos separados. Para eso deben estar en pools distintos. |