User Tools

Site Tools


cephtest:cephtest2

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Next revision
Previous revision
cephtest:cephtest2 [2018/01/10 15:34]
moliver@uclv created
cephtest:cephtest2 [2019/04/28 12:19]
moliver@uclv
Line 1: Line 1:
-Cuando un OSD se corrompe por ruptura del disco +__**Cuando un OSD se corrompe por ruptura del disco**__
-============================================== +
  
  
 1. Usar los siguientes comandos para saber como esta configurado el arbol de OSD y los pool que hay en cada uno. 1. Usar los siguientes comandos para saber como esta configurado el arbol de OSD y los pool que hay en cada uno.
 +
 +<​code>​
 ceph osd tree ceph osd tree
 ceph pg dump ceph pg dump
 +</​code>​
  
 Es importante ver que no este comprometido el ratio de replicacion porque de estarlo se debe incrementar la capacidad lo antes posible. Es importante ver que no este comprometido el ratio de replicacion porque de estarlo se debe incrementar la capacidad lo antes posible.
  
  
-1a. Luego dedetectar ​el que se desea eliminar se debe quitarle el peso que tiene de almacenaje.+1a. Luego de detectar ​el que se desea eliminar se debe quitarle el peso que tiene de almacenaje.
  
-ej: ceph osd crush reweight osd.7 0+<​code>​ 
 +ceph osd crush reweight osd.7 0 
 +</​code>​
  
 2. Sacarlo de la lista de OSD activos. 2. Sacarlo de la lista de OSD activos.
 osd out {osd-num} osd out {osd-num}
-ej: ceph osd out 7+ 
 +<​code>​ 
 +ceph osd out 7 
 +</​code>​
  
  
Line 24: Line 30:
  
  
-4. Detener los OSD y desmontarlo del sistema de archivos.+4. Detener los OSD y desmontarlo del sistema de archivos: stop ceph-osd id={osd-num} 
 + 
 +<​code>​
 stop ceph-osd id={osd-num} stop ceph-osd id={osd-num}
-ej: stop ceph-osd id={osd-num} +ceph-osd stop 7 
-    ​ceph-osd stop 7 +umount /​var/​lib/​ceph/​osd/​ceph-7 
-    umount /​var/​lib/​ceph/​osd/​ceph-7+</​code>​
  
  
 +5. [[cephtest:​remove|NUEVO]] Eliminar el OSD del mapa CRSUH: ceph osd crush remove {name}
  
-5. Eliminar el OSD del mapa CRSUH. +<​code>​ 
-ceph osd crush remove {name} +ceph osd crush remove osd.7 
-ej: ceph osd crush remove osd.7+</​code>​
  
  
-6. Eliminar las llaves de autentificacion+6. Eliminar las llaves de autentificacionceph auth del osd.{osd-num} 
-ceph auth del osd.{osd-num} +<​code>​ 
-ej ceph auth del osd.7+ceph auth del osd.7 
 +</​code>​
  
-7. Eliminar el OSD del mapa de OSD'​s ​ +7. Eliminar el OSD del mapa de OSD'sceph osd rm {osd-num} 
-ceph osd rm {osd-num} +<​code>​ 
-ej: ceph osd rm 7+ceph osd rm 7 
 +</​code>​
  
  
-8. En este punto ya todo est· como si el OSD no hubiera existido. Se puede proceder a crear el nuevo. 
  
 +8. En este punto ya todo está como si el OSD no hubiera existido. Se puede proceder a crear el nuevo.
  
  
  
-Addicionando un nuevo espacio + 
-==============================================+__**Addicionando un nuevo espacio**__ 
 + 
 1 Crear el OSD logicamente 1 Crear el OSD logicamente
  
 +<​code>​
 ceph osd create ​ ceph osd create ​
 +</​code>​
  
 2 Crear el punto donde se va a montar el OSD 2 Crear el punto donde se va a montar el OSD
 +<​code>​
 mkdir /​var/​lib/​ceph/​osd/​ceph-7 mkdir /​var/​lib/​ceph/​osd/​ceph-7
 +</​code>​
  
 3 Formatear el OSD (Se asume que ya esta la particion creada. De no estarlo se recomienda hacerlo con el parted) 3 Formatear el OSD (Se asume que ya esta la particion creada. De no estarlo se recomienda hacerlo con el parted)
 +<​code>​
 mkfs -t xfs /dev/sdd1 mkfs -t xfs /dev/sdd1
 +</​code>​
  
 4 Montar la particion en el lugar asignado 4 Montar la particion en el lugar asignado
 +<​code>​
 mount -o rw,​relatime,​inode64,​logbsize=256k,​delaylog,​allocsize=4M /dev/sdd1 /​var/​lib/​ceph/​osd/​ceph-7 mount -o rw,​relatime,​inode64,​logbsize=256k,​delaylog,​allocsize=4M /dev/sdd1 /​var/​lib/​ceph/​osd/​ceph-7
 +</​code>​
  
-5 Crear las llames ​de autentificacion ​+5 Crear las llaves ​de autentificacion ​ 
 +<​code>​
 ceph-osd -i 7 --mkfs --mkkey ceph-osd -i 7 --mkfs --mkkey
 +</​code>​
  
 6 Adicionar las llaves y las reglas de acceso del OSD creado 6 Adicionar las llaves y las reglas de acceso del OSD creado
 +<​code>​
 ceph auth add osd.7 osd 'allow *' mon 'allow rwx' -i /​var/​lib/​ceph/​osd/​ceph-7/​keyring ceph auth add osd.7 osd 'allow *' mon 'allow rwx' -i /​var/​lib/​ceph/​osd/​ceph-7/​keyring
 +</​code>​
  
-7 Adicionar el OSD al mapa del CRUSH +7 Adicionar el OSD al mapa del CRUSHceph osd crush add {id-or-name} {weight} ​ [{bucket-type}={bucket-name} ...] 
-ceph osd crush add {id-or-name} {weight} ​ [{bucket-type}={bucket-name} ...] +<​code>​ 
-ej: ceph osd crush add osd.7 1.45 host=compute1+ceph osd crush add osd.7 1.45 host=compute1 
 +</​code>​
  
 8 Iniciar el proceso del OSD 8 Iniciar el proceso del OSD
 +<​code>​
 start ceph-osd id=7 start ceph-osd id=7
 +</​code>​
  
 9 Comprobar que se halla integrado al esquema de replicacion y que se este replicando todo. 9 Comprobar que se halla integrado al esquema de replicacion y que se este replicando todo.
 +<​code>​
 ceph -w ceph -w
 +</​code>​
  
 ref: ref:
Line 91: Line 120:
  
  
-Exportar el mapa CRUSH +__**Exportar el mapa CRUSH**__ 
-===============================================+<​code>​
 ceph osd getcrushmap -o salida ceph osd getcrushmap -o salida
 crushtool -d salida -o salida.decompile crushtool -d salida -o salida.decompile
 +</​code>​
  
  
  
 +**__Asignado un grupo de discos a un pool__**
  
-Asignado un grupo de discos a un pool 
-================================================== 
  
 Normalmente cuando se adiciona OSD a una estrucutra ya en funcionamiento se ve asi: Normalmente cuando se adiciona OSD a una estrucutra ya en funcionamiento se ve asi:
  
 +<​code>​
 $ ceph osd tree $ ceph osd tree
 # id    weight ​ type name       ​up/​down reweight # id    weight ​ type name       ​up/​down reweight
Line 116: Line 146:
 2       ​0.03 ​                   osd.2   ​up ​     1 2       ​0.03 ​                   osd.2   ​up ​     1
 5       ​0.03 ​                   osd.5   ​up ​     1 5       ​0.03 ​                   osd.5   ​up ​     1
 +</​code>​
  
 Pero si se tienen discos tipo SSD y discos SATA es comprensible que se deseen usar en casos separados. Para eso deben estar en pools distintos. Pero si se tienen discos tipo SSD y discos SATA es comprensible que se deseen usar en casos separados. Para eso deben estar en pools distintos.
cephtest/cephtest2.txt · Last modified: 2019/04/28 12:19 by moliver@uclv