User Tools

Site Tools


cephtest:cephtest2

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
cephtest:cephtest2 [2018/01/10 15:41]
moliver@uclv
cephtest:cephtest2 [2019/04/28 12:19] (current)
moliver@uclv
Line 12: Line 12:
  
  
-1a. Luego dedetectar ​el que se desea eliminar se debe quitarle el peso que tiene de almacenaje.+1a. Luego de detectar ​el que se desea eliminar se debe quitarle el peso que tiene de almacenaje.
  
 <​code>​ <​code>​
Line 39: Line 39:
  
  
-5. Eliminar el OSD del mapa CRSUH: ceph osd crush remove {name}+5. [[cephtest:​remove|NUEVO]] ​Eliminar el OSD del mapa CRSUH: ceph osd crush remove {name}
  
 <​code>​ <​code>​
Line 63: Line 63:
  
  
-Addicionando un nuevo espacio +__**Addicionando un nuevo espacio**__ 
-==============================================+ 
 1 Crear el OSD logicamente 1 Crear el OSD logicamente
  
 +<​code>​
 ceph osd create ​ ceph osd create ​
 +</​code>​
  
 2 Crear el punto donde se va a montar el OSD 2 Crear el punto donde se va a montar el OSD
 +<​code>​
 mkdir /​var/​lib/​ceph/​osd/​ceph-7 mkdir /​var/​lib/​ceph/​osd/​ceph-7
 +</​code>​
  
 3 Formatear el OSD (Se asume que ya esta la particion creada. De no estarlo se recomienda hacerlo con el parted) 3 Formatear el OSD (Se asume que ya esta la particion creada. De no estarlo se recomienda hacerlo con el parted)
 +<​code>​
 mkfs -t xfs /dev/sdd1 mkfs -t xfs /dev/sdd1
 +</​code>​
  
 4 Montar la particion en el lugar asignado 4 Montar la particion en el lugar asignado
 +<​code>​
 mount -o rw,​relatime,​inode64,​logbsize=256k,​delaylog,​allocsize=4M /dev/sdd1 /​var/​lib/​ceph/​osd/​ceph-7 mount -o rw,​relatime,​inode64,​logbsize=256k,​delaylog,​allocsize=4M /dev/sdd1 /​var/​lib/​ceph/​osd/​ceph-7
 +</​code>​
  
-5 Crear las llames ​de autentificacion ​+5 Crear las llaves ​de autentificacion ​ 
 +<​code>​
 ceph-osd -i 7 --mkfs --mkkey ceph-osd -i 7 --mkfs --mkkey
 +</​code>​
  
 6 Adicionar las llaves y las reglas de acceso del OSD creado 6 Adicionar las llaves y las reglas de acceso del OSD creado
 +<​code>​
 ceph auth add osd.7 osd 'allow *' mon 'allow rwx' -i /​var/​lib/​ceph/​osd/​ceph-7/​keyring ceph auth add osd.7 osd 'allow *' mon 'allow rwx' -i /​var/​lib/​ceph/​osd/​ceph-7/​keyring
 +</​code>​
  
-7 Adicionar el OSD al mapa del CRUSH +7 Adicionar el OSD al mapa del CRUSHceph osd crush add {id-or-name} {weight} ​ [{bucket-type}={bucket-name} ...] 
-ceph osd crush add {id-or-name} {weight} ​ [{bucket-type}={bucket-name} ...] +<​code>​ 
-ej: ceph osd crush add osd.7 1.45 host=compute1+ceph osd crush add osd.7 1.45 host=compute1 
 +</​code>​
  
 8 Iniciar el proceso del OSD 8 Iniciar el proceso del OSD
 +<​code>​
 start ceph-osd id=7 start ceph-osd id=7
 +</​code>​
  
 9 Comprobar que se halla integrado al esquema de replicacion y que se este replicando todo. 9 Comprobar que se halla integrado al esquema de replicacion y que se este replicando todo.
 +<​code>​
 ceph -w ceph -w
 +</​code>​
  
 ref: ref:
Line 103: Line 120:
  
  
-Exportar el mapa CRUSH +__**Exportar el mapa CRUSH**__ 
-===============================================+<​code>​
 ceph osd getcrushmap -o salida ceph osd getcrushmap -o salida
 crushtool -d salida -o salida.decompile crushtool -d salida -o salida.decompile
 +</​code>​
  
  
  
 +**__Asignado un grupo de discos a un pool__**
  
-Asignado un grupo de discos a un pool 
-================================================== 
  
 Normalmente cuando se adiciona OSD a una estrucutra ya en funcionamiento se ve asi: Normalmente cuando se adiciona OSD a una estrucutra ya en funcionamiento se ve asi:
  
 +<​code>​
 $ ceph osd tree $ ceph osd tree
 # id    weight ​ type name       ​up/​down reweight # id    weight ​ type name       ​up/​down reweight
Line 128: Line 146:
 2       ​0.03 ​                   osd.2   ​up ​     1 2       ​0.03 ​                   osd.2   ​up ​     1
 5       ​0.03 ​                   osd.5   ​up ​     1 5       ​0.03 ​                   osd.5   ​up ​     1
 +</​code>​
  
 Pero si se tienen discos tipo SSD y discos SATA es comprensible que se deseen usar en casos separados. Para eso deben estar en pools distintos. Pero si se tienen discos tipo SSD y discos SATA es comprensible que se deseen usar en casos separados. Para eso deben estar en pools distintos.
cephtest/cephtest2.1515616863.txt.gz · Last modified: 2018/01/10 15:41 by moliver@uclv