LVM Time out waiting for devices Le sujet est résolu

Demande d'aide : c'est ici.
Répondre
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

de toute façon cela ne fonctionne pas pour autant.....

Code : Tout sélectionner

fsck -n -f /dev/mapper/nas-NAS
fsck from util-linux 2.29.2
e2fsck 1.44.5 (15-Dec-2018)
Pass 1: Checking inodes, blocks, and sizes
Inode 8650754 extent tree (at level 2) could be narrower.  Optimize? no

Error reading block 61341978 (Input/output error) while getting next inode from scan.  Ignore error? no

Error while scanning inodes (15339392): Can't read next inode
e2fsck: aborted
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

bon, je viens de lance un

Code : Tout sélectionner

fsck -yfv -C0 /dev/disk/by-id/dm-name-nas-NAS
ça risque de prendre quelques heures.....

Code : Tout sélectionner

Pass 1: Checking inodes, blocks, and sizes
/dev/mapper/nas-NAS: |                                        \  0.8%  
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

après près de 48h de travail, cette commande a donc remis en ligne le LVM.

je suis entrain de tout sauvegarder sur un autre de mes PC équipé de deux DD internes et mis en RAID0

je me dis que la durée de vie de ce nas monté à coup de 7 DD internes/externes ne va pas faire long feu....

merci pour votre aide messieurs !
Avatar de l’utilisateur
piratebab
Site Admin
Site Admin
Messages : 5863
Inscription : 24 avr. 2016, 18:41
Localisation : sud ouest
Status : En ligne

Avec 7 dd, il y a de quoi faire de la redondance, par ex un RAID 5!
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

Je dois donc plus miser sur la sécurité au lieu du maximum d'espace de stockage permis par un système LVM !
PascalHambourg
Contributeur
Contributeur
Messages : 930
Inscription : 05 août 2016, 20:25
Status : Hors-ligne

Avec des disques de capacités aussi disparates, ce n'est pas évident de faire du RAID classique (mdadm) sans perdre d'espace. A titre d'exemple, il y a fort longtemps j'ai fait du RAID 1 avec 1 disque de 160 Go et deux disques de 80 Go de la façon suivante :
- le disque de 160 Go partitionné en deux partitions de 80 Go
- un premier ensemble RAID 1 contenant une partition + un disque de 80 Go
- un second ensemble RAID 1 contenant l'autre partition + l'autre disque de 80 Go
- les deux ensembles RAID utilisés comme PV LVM d'un VG
Ici, ce serait beaucoup plus compliqué.

Une alternative consisterait à utiliser directement le RAID natif de LVM : on met tous les disques comme PV dans un VG LVM, et on crée des LV du type RAID désiré et en principe LVM se débrouille ensuite pour répartir les données sur les différents PV en assurant la redondance. Mais je ne l'ai jamais utilisé.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

une piste à explorer, de toute façon une fois que les données auront fini d'être au chaud, je pourrais faire quelques test sans risques.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

Sinon, le disque qui est régulièrement en [unknown], je peux le virer à la poubelle non ?! vu que le boitier 3"5 est tout neuf, c'est bien le DD qui est très fatigué là ?

Là pour l'instant voici l'état du #pvscan

Code : Tout sélectionner

pvscan
  WARNING: Device for PV R7bOf7-yWeU-Kpmp-3agi-LYPA-zCcw-2H06lp not found or rejected by a filter.
  PV /dev/sdb3   VG nas             lvm2 [136,36 GiB / 0    free]
  PV /dev/sdc1   VG nas             lvm2 [149,05 GiB / 0    free]
  PV /dev/sde1   VG nas             lvm2 [149,05 GiB / 0    free]
  PV /dev/sdf1   VG nas             lvm2 [1,36 TiB / 0    free]
  PV [unknown]   VG nas             lvm2 [931,51 GiB / 0    free]
  PV /dev/sdl1   VG nas             lvm2 [931,48 GiB / 0    free]
  PV /dev/sdd    VG nas             lvm2 [698,63 GiB / 0    free]
  Total: 7 [4,29 TiB] / in use: 7 [4,29 TiB] / in no VG: 0 [0   ]
Il est inconnu et pourtant rattaché au nas :rolleyes:
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

PascalHambourg
Contributeur
Contributeur
Messages : 930
Inscription : 05 août 2016, 20:25
Status : Hors-ligne

genpashiro a écrit : 09 déc. 2021, 22:05 Sinon, le disque qui est régulièrement en [unknown], je peux le virer à la poubelle non ?! vu que le boitier 3"5 est tout neuf, c'est bien le DD qui est très fatigué là ?
Aucune idée. Il faudrait tester chaque élément de la chaîne (disque, boîtier, câble, alimentation, port, carte mère) séparément. Peut-être que ce disque n'aime pas être branché sur un adaptateur USB. Tu as fait un smartctl -a dessus ?
genpashiro a écrit : 10 déc. 2021, 21:59 sujet intéressant https://linuxfr.org/news/gestion-de-vol ... d-avec-lvm
Créer un volume logique en RAID, c'est facile. Mais le plus important est de maîtriser la maintenance en cas de problème, comme l'illustre ce sujet.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

PascalHambourg a écrit : 11 déc. 2021, 09:30
genpashiro a écrit : 09 déc. 2021, 22:05 Sinon, le disque qui est régulièrement en [unknown], je peux le virer à la poubelle non ?! vu que le boitier 3"5 est tout neuf, c'est bien le DD qui est très fatigué là ?
Aucune idée. Il faudrait tester chaque élément de la chaîne (disque, boîtier, câble, alimentation, port, carte mère) séparément. Peut-être que ce disque n'aime pas être branché sur un adaptateur USB. Tu as fait un smartctl -a dessus ?
Je vais tester ces différents scénarii sur un autre PC alors et faire le smartctl au préalable.
PascalHambourg a écrit : 11 déc. 2021, 09:30
genpashiro a écrit : 10 déc. 2021, 21:59 sujet intéressant https://linuxfr.org/news/gestion-de-vol ... d-avec-lvm
Créer un volume logique en RAID, c'est facile. Mais le plus important est de maîtriser la maintenance en cas de problème, comme l'illustre ce sujet.
Sujet à creuser pour moi bien sûr, LVM et RAID séparé j'ai déjà (un peu) fait mais les deux combinés pas encore.
Répondre