User Tools

Site Tools


cephtest:disk4pool

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

cephtest:disk4pool [2016/06/06 08:39]
moliver created
cephtest:disk4pool [2019/12/02 14:32] (current)
moliver@uclv
Line 6: Line 6:
 Normalmente cuando se adiciona OSD a una estrucutra ya en funcionamiento se ve asi: Normalmente cuando se adiciona OSD a una estrucutra ya en funcionamiento se ve asi:
  
 +<​code>​
 $ ceph osd tree $ ceph osd tree
 # id    weight ​ type name       ​up/​down reweight # id    weight ​ type name       ​up/​down reweight
Line 18: Line 19:
 2       ​0.03 ​                   osd.2   ​up ​     1 2       ​0.03 ​                   osd.2   ​up ​     1
 5       ​0.03 ​                   osd.5   ​up ​     1 5       ​0.03 ​                   osd.5   ​up ​     1
 +</​code>​
  
 Pero si se tienen discos tipo SSD y discos SATA es comprensible que se deseen usar en casos separados. Para eso deben estar en pools distintos. Pero si se tienen discos tipo SSD y discos SATA es comprensible que se deseen usar en casos separados. Para eso deben estar en pools distintos.
 +
 Una ayuda muy clara se puede ver en: Una ayuda muy clara se puede ver en:
 http://​www.sebastien-han.fr/​blog/​2014/​08/​25/​ceph-mix-sata-and-ssd-within-the-same-box/​ http://​www.sebastien-han.fr/​blog/​2014/​08/​25/​ceph-mix-sata-and-ssd-within-the-same-box/​
Line 26: Line 28:
  
 Basicamente se debe: Basicamente se debe:
 +
 1. Exportar el CRUSH map actual 1. Exportar el CRUSH map actual
  
 +<​code>​
 ceph osd getcrushmap -o salida ceph osd getcrushmap -o salida
 crushtool -d salida -o salida.decompile crushtool -d salida -o salida.decompile
 +</​code>​
  
 Se va a ver  que todos los osd estan dentro de los 3 hosts Se va a ver  que todos los osd estan dentro de los 3 hosts
Line 36: Line 41:
  
 La idea es crear 3 nuevos host "​virtuales"​ que incluyan cada uno los tipos de discos que se desean separar y luego poner estos osd bajo un root diferente. La idea es crear 3 nuevos host "​virtuales"​ que incluyan cada uno los tipos de discos que se desean separar y luego poner estos osd bajo un root diferente.
 +
 En el caso de hacer esto en una plataforma que ya este trabajando lo mejor es no modificar el nombre del root default ni de los pools que estan  creados bajo el y adicionar los nuevos discos/​osd/​root/​pools en una estrucutra nueva que se pueda asociar desde cero. En el caso de hacer esto en una plataforma que ya este trabajando lo mejor es no modificar el nombre del root default ni de los pools que estan  creados bajo el y adicionar los nuevos discos/​osd/​root/​pools en una estrucutra nueva que se pueda asociar desde cero.
    
 +<​code>​
 ## ##
 # OSD SATA DECLARATION # OSD SATA DECLARATION
Line 146: Line 152:
  step emit  step emit
 } }
 +</​code>​
  
  
 3. Reinsertarlo 3. Reinsertarlo
  
 +<​code>​
 $ crushtool -c salida.decompiled -o salida2.compiled $ crushtool -c salida.decompiled -o salida2.compiled
 $ sudo ceph osd setcrushmap -i salida2.compiled $ sudo ceph osd setcrushmap -i salida2.compiled
 +<​code>​
  
  
Line 159: Line 166:
 4.comprobar que el arbol este dividido en 2. 4.comprobar que el arbol este dividido en 2.
  
 +<​code>​
 ceph@ceph-admin:​~$ ceph osd tree ceph@ceph-admin:​~$ ceph osd tree
 # id    weight ​ type name       ​up/​down reweight # id    weight ​ type name       ​up/​down reweight
Line 175: Line 183:
 -4      0.03            host ceph3-ssd -4      0.03            host ceph3-ssd
 2       ​0.03 ​                   osd.2   ​up ​     1 2       ​0.03 ​                   osd.2   ​up ​     1
 +</​code>​
  
 +5. Creacion de los pools
  
-5. Creacion de los pools+<​code>​
 $ceph osd pool create ssd 128 128 $ceph osd pool create ssd 128 128
 pool '​ssd'​ created pool '​ssd'​ created
Line 183: Line 193:
 $ceph osd pool create sata 128 128 $ceph osd pool create sata 128 128
 pool '​sata'​ created pool '​sata'​ created
 +</​code>​
  
 6. Assignar reglas a los pools. Los valores de las reglas son los definidos anteriormente en el CRUSH map. 6. Assignar reglas a los pools. Los valores de las reglas son los definidos anteriormente en el CRUSH map.
  
 +<​code>​
 $ceph osd pool set ssd crush_ruleset 0 $ceph osd pool set ssd crush_ruleset 0
 set pool 8 crush_ruleset to 0 set pool 8 crush_ruleset to 0
Line 193: Line 204:
 $ceph osd pool set sata crush_ruleset 1 $ceph osd pool set sata crush_ruleset 1
 set pool 9 crush_ruleset to 1 set pool 9 crush_ruleset to 1
 +</​code>​
  
 7. Comprobar que los nuevos pools se hallan creado y que esten asociados con las reglas adecuadas. 7. Comprobar que los nuevos pools se hallan creado y que esten asociados con las reglas adecuadas.
 +
 +<​code>​
 ceph osd dump ceph osd dump
  
Line 217: Line 230:
 osd.4 up   ​in ​ weight 1 up_from 20 up_thru 34 down_at 0 last_clean_interval [0,0) 10.12.1.152:​6803/​3890 10.12.253.51:​6802/​3890 10.12.253.51:​6803/​3890 10.12.1.152:​6804/​3890 exists,up 649fc093-6dff-403c-928f-2e07f2d02e63 osd.4 up   ​in ​ weight 1 up_from 20 up_thru 34 down_at 0 last_clean_interval [0,0) 10.12.1.152:​6803/​3890 10.12.253.51:​6802/​3890 10.12.253.51:​6803/​3890 10.12.1.152:​6804/​3890 exists,up 649fc093-6dff-403c-928f-2e07f2d02e63
 osd.5 up   ​in ​ weight 1 up_from 24 up_thru 34 down_at 0 last_clean_interval [0,0) 10.12.1.153:​6803/​6458 10.12.253.52:​6802/​6458 10.12.253.52:​6803/​6458 10.12.1.153:​6804/​6458 exists,up dbef13f9-4fc4-4ed6-aa35-fd757dfe17ab osd.5 up   ​in ​ weight 1 up_from 24 up_thru 34 down_at 0 last_clean_interval [0,0) 10.12.1.153:​6803/​6458 10.12.253.52:​6802/​6458 10.12.253.52:​6803/​6458 10.12.1.153:​6804/​6458 exists,up dbef13f9-4fc4-4ed6-aa35-fd757dfe17ab
 +</​code>​
  
  
cephtest/disk4pool.txt ยท Last modified: 2019/12/02 14:32 by moliver@uclv