User Tools

Site Tools


cephtest:cephtest2

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
Last revision Both sides next revision
cephtest:cephtest2 [2018/01/10 15:41]
moliver@uclv
cephtest:cephtest2 [2018/07/20 20:22]
moliver@uclv
Line 63: Line 63:
  
  
-Addicionando un nuevo espacio +__**Addicionando un nuevo espacio**__ 
-==============================================+ 
 1 Crear el OSD logicamente 1 Crear el OSD logicamente
  
 +<​code>​
 ceph osd create ​ ceph osd create ​
 +</​code>​
  
 2 Crear el punto donde se va a montar el OSD 2 Crear el punto donde se va a montar el OSD
 +<​code>​
 mkdir /​var/​lib/​ceph/​osd/​ceph-7 mkdir /​var/​lib/​ceph/​osd/​ceph-7
 +</​code>​
  
 3 Formatear el OSD (Se asume que ya esta la particion creada. De no estarlo se recomienda hacerlo con el parted) 3 Formatear el OSD (Se asume que ya esta la particion creada. De no estarlo se recomienda hacerlo con el parted)
 +<​code>​
 mkfs -t xfs /dev/sdd1 mkfs -t xfs /dev/sdd1
 +</​code>​
  
 4 Montar la particion en el lugar asignado 4 Montar la particion en el lugar asignado
 +<​code>​
 mount -o rw,​relatime,​inode64,​logbsize=256k,​delaylog,​allocsize=4M /dev/sdd1 /​var/​lib/​ceph/​osd/​ceph-7 mount -o rw,​relatime,​inode64,​logbsize=256k,​delaylog,​allocsize=4M /dev/sdd1 /​var/​lib/​ceph/​osd/​ceph-7
 +</​code>​
  
-5 Crear las llames ​de autentificacion ​+5 Crear las llaves ​de autentificacion ​ 
 +<​code>​
 ceph-osd -i 7 --mkfs --mkkey ceph-osd -i 7 --mkfs --mkkey
 +</​code>​
  
 6 Adicionar las llaves y las reglas de acceso del OSD creado 6 Adicionar las llaves y las reglas de acceso del OSD creado
 +<​code>​
 ceph auth add osd.7 osd 'allow *' mon 'allow rwx' -i /​var/​lib/​ceph/​osd/​ceph-7/​keyring ceph auth add osd.7 osd 'allow *' mon 'allow rwx' -i /​var/​lib/​ceph/​osd/​ceph-7/​keyring
 +</​code>​
  
-7 Adicionar el OSD al mapa del CRUSH +7 Adicionar el OSD al mapa del CRUSHceph osd crush add {id-or-name} {weight} ​ [{bucket-type}={bucket-name} ...] 
-ceph osd crush add {id-or-name} {weight} ​ [{bucket-type}={bucket-name} ...] +<​code>​ 
-ej: ceph osd crush add osd.7 1.45 host=compute1+ceph osd crush add osd.7 1.45 host=compute1 
 +</​code>​
  
 8 Iniciar el proceso del OSD 8 Iniciar el proceso del OSD
 +<​code>​
 start ceph-osd id=7 start ceph-osd id=7
 +</​code>​
  
 9 Comprobar que se halla integrado al esquema de replicacion y que se este replicando todo. 9 Comprobar que se halla integrado al esquema de replicacion y que se este replicando todo.
 +<​code>​
 ceph -w ceph -w
 +</​code>​
  
 ref: ref:
Line 103: Line 120:
  
  
-Exportar el mapa CRUSH +__**Exportar el mapa CRUSH**__ 
-===============================================+<​code>​
 ceph osd getcrushmap -o salida ceph osd getcrushmap -o salida
 crushtool -d salida -o salida.decompile crushtool -d salida -o salida.decompile
 +</​code>​
  
  
  
 +**__Asignado un grupo de discos a un pool__**
  
-Asignado un grupo de discos a un pool 
-================================================== 
  
 Normalmente cuando se adiciona OSD a una estrucutra ya en funcionamiento se ve asi: Normalmente cuando se adiciona OSD a una estrucutra ya en funcionamiento se ve asi:
  
 +<​code>​
 $ ceph osd tree $ ceph osd tree
 # id    weight ​ type name       ​up/​down reweight # id    weight ​ type name       ​up/​down reweight
Line 128: Line 146:
 2       ​0.03 ​                   osd.2   ​up ​     1 2       ​0.03 ​                   osd.2   ​up ​     1
 5       ​0.03 ​                   osd.5   ​up ​     1 5       ​0.03 ​                   osd.5   ​up ​     1
 +</​code>​
  
 Pero si se tienen discos tipo SSD y discos SATA es comprensible que se deseen usar en casos separados. Para eso deben estar en pools distintos. Pero si se tienen discos tipo SSD y discos SATA es comprensible que se deseen usar en casos separados. Para eso deben estar en pools distintos.
cephtest/cephtest2.txt · Last modified: 2019/04/28 12:19 by moliver@uclv