LVM Time out waiting for devices Le sujet est résolu

Demande d'aide : c'est ici.
Répondre
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

:006:

Depuis quelques jours, j'ai quelques soucis avec mes disques en LVM.

Au boot de la machine (sous OMV), je vois le message time out waiting for device et le LVM n'est donc pas monté.

Dans un 1er temps, un des disques dur est [unknown], j'ai lancé la commande

Code : Tout sélectionner

vgreduce --removemissing --force 'VG name'
et relancé la machine.
Le DD a été reconnu, je l'ai rajouté dans le volume logique mais rien ne se monte, le lvm reste en status "manquant"

quelques commandes :

Code : Tout sélectionner

vgscan
  Reading volume groups from cache.
  Found volume group "nas" using metadata type lvm2

Code : Tout sélectionner

pvscan
  PV /dev/sdb3   VG nas             lvm2 [136,36 GiB / 0    free]
  PV /dev/sdc1   VG nas             lvm2 [149,05 GiB / 0    free]
  PV /dev/sdd1   VG nas             lvm2 [149,05 GiB / 0    free]
  PV /dev/sdf1   VG nas             lvm2 [1,36 TiB / 0    free]
  PV /dev/sdg1   VG nas             lvm2 [931,48 GiB / 0    free]
  PV /dev/sda    VG nas             lvm2 [698,63 GiB / 0    free]
  PV /dev/sde1   VG nas             lvm2 [931,51 GiB / 0    free]
  Total: 7 [4,29 TiB] / in use: 7 [4,29 TiB] / in no VG: 0 [0   ]

Code : Tout sélectionner

lvscan
  ACTIVE            '/dev/nas/nas' [4,29 TiB] inherit

Code : Tout sélectionner

blkid
/dev/sda: UUID="glgoo1-1jP5-SPNA-is2P-ImGR-1csB-wAWg43" TYPE="LVM2_member"
/dev/sdb1: UUID="4c1760f7-0ff6-494c-93bc-2811d55b28f6" TYPE="ext4" PTTYPE="dos" PARTUUID="ea4417e3-01"
/dev/sdb3: UUID="Fmbn23-7GO1-IiOY-dAIQ-NRdn-oyFn-94xJip" TYPE="LVM2_member" PARTUUID="ea4417e3-03"
/dev/sdb5: UUID="0d732339-60ce-4741-a5f9-e285e6f3e377" TYPE="swap" PARTUUID="ea4417e3-05"
/dev/sdc1: UUID="532fnK-lf37-c1gL-pCFL-2OGu-ke8I-pVNG7E" TYPE="LVM2_member" PARTUUID="b1dabbcd-1809-4f11-b2f3-d5d61056fa38"
/dev/sdd1: UUID="3v0cUj-aIAE-uM4R-mjdV-5o9X-2JlV-W5oSvH" TYPE="LVM2_member" PARTUUID="efe8c6d4-67c8-49cd-bf93-0a44f22e6e52"
/dev/sde1: UUID="R7bOf7-yWeU-Kpmp-3agi-LYPA-zCcw-2H06lp" TYPE="LVM2_member" PARTUUID="373b6205-b3db-47b4-82f5-31a92a754c74"
/dev/sdf1: UUID="KVfoEw-udtY-mhvL-spjc-n2Xj-BueL-ug1WoO" TYPE="LVM2_member" PARTUUID="c36a5d69-750a-4716-8ad1-0d5bb1cb9b40"
/dev/sdg1: UUID="du2AyX-3wq0-hV9g-3Rlj-Xdm4-mHrp-XuJ3bp" TYPE="LVM2_member" PARTUUID="00023f15-01"
Bien sur, il y avait beaucoup de fichiers que j'aimerais récupérer....est-ce possible svp ?

Merci à vous pour votre aide
PascalHambourg
Contributeur
Contributeur
Messages : 930
Inscription : 05 août 2016, 20:25
Status : Hors-ligne

genpashiro a écrit : 29 nov. 2021, 21:56 un des disques dur est [unknown]
C'est-à-dire ? Où vois-tu ça ?
genpashiro a écrit : 29 nov. 2021, 21:56 Le DD a été reconnu
C'est-à-dire ?
genpashiro a écrit : 29 nov. 2021, 21:56 je l'ai rajouté dans le volume logique
Comment ?
genpashiro a écrit : 29 nov. 2021, 21:56 vgreduce --removemissing --force 'VG name'
D'après la page de manuel de vgreduce, cette commande supprime tous les volumes logiques occupant en partie ou en totalité de l'espace dans les volumes physiques manquants.
Quels étaient les volumes logiques existants avant cet événement ?
genpashiro a écrit : 29 nov. 2021, 21:56 il y avait beaucoup de fichiers que j'aimerais récupérer
Quand on tient à ses données, on fait une sauvegarde, ou au minimum de la redondance avec du RAID (en-dessous ou à l'intérieur de LVM). Etendre un groupe de volumes sur 7 disques sans redondance, c'est téméraire.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

genpashiro a écrit : 29 nov. 2021, 21:56 un des disques dur est [unknown]
PascalHambourg a écrit : 29 nov. 2021, 23:15 C'est-à-dire ? Où vois-tu ça ?
Cette information réapparaît là, après avoir redémarrer le PC en question :

Code : Tout sélectionner

pvscan 
  WARNING: Device for PV R7bOf7-yWeU-Kpmp-3agi-LYPA-zCcw-2H06lp not found or rejected by a filter.
  PV /dev/sdb3   VG nas             lvm2 [136,36 GiB / 0    free]
  PV /dev/sdc1   VG nas             lvm2 [149,05 GiB / 0    free]
  PV /dev/sdd1   VG nas             lvm2 [149,05 GiB / 0    free]
  PV /dev/sde1   VG nas             lvm2 [1,36 TiB / 0    free]
  PV /dev/sdk1   VG nas             lvm2 [931,48 GiB / 0    free]
  PV /dev/sda    VG nas             lvm2 [698,63 GiB / 0    free]
  PV [unknown]   VG nas             lvm2 [931,51 GiB / 0    free]
  Total: 7 [4,29 TiB] / in use: 7 [4,29 TiB] / in no VG: 0 [0   ]
L'information donnée est donc que le device en question n'est pas trouvé ou rejeté a priori d'où l'impossibilité pour le système de monter le "nas"
genpashiro a écrit : 29 nov. 2021, 21:56 Le DD a été reconnu
PascalHambourg a écrit : 29 nov. 2021, 23:15 C'est-à-dire ?
En saisissant donc la commande vgreduce --removemissing --force 'VG name' , le device manquant a donc été retiré du nas, ensuite redémarrage et le pvscan le faisant apparaître en /dev/sde1 par contre (contrairement à la commande plus haut)
genpashiro a écrit : 29 nov. 2021, 21:56 je l'ai rajouté dans le volume logique
PascalHambourg a écrit : 29 nov. 2021, 23:15 Comment ?
Sur l'interface web de OMV dans Volumes Logiques -> Ajouter ->
genpashiro a écrit : 29 nov. 2021, 21:56 vgreduce --removemissing --force 'VG name'
PascalHambourg a écrit : 29 nov. 2021, 23:15 D'après la page de manuel de vgreduce, cette commande supprime tous les volumes logiques occupant en partie ou en totalité de l'espace dans les volumes physiques manquants.
Quels étaient les volumes logiques existants avant cet événement ?
En LV, il n'y a eu toujours que 'nas' en nom de volume, tout comme le VG qui porte le même intitulé
genpashiro a écrit : 29 nov. 2021, 21:56 il y avait beaucoup de fichiers que j'aimerais récupérer
PascalHambourg a écrit : 29 nov. 2021, 23:15 Quand on tient à ses données, on fait une sauvegarde, ou au minimum de la redondance avec du RAID (en-dessous ou à l'intérieur de LVM). Etendre un groupe de volumes sur 7 disques sans redondance, c'est téméraire.
Oui! je suis bien d'accord avec toi. Plus idiot que téméraire je dirais. Tant que tout allait bien, je me disais "bon va falloir sauvegarder tout ça pour le jour où ça plantera...." j'ai souscrit à un compte chez BackBlaze, bien sûr trop tard....

A savoir que le device qui pose a priori problème est un DD Hitachi de 1To placé dans un boitier 3"5. J'ai remplacé le boitier car l'autre a fait une chute et ne fonctionnait plus. Le DD ayant étant reconnu dans un autre UC en le branchant directement.

Du coup, je pense (enfin j'espère!) que ce DD fonctionne normalement....

Comment puis je procéder pour récupérer ce 'nas' ?
Avatar de l’utilisateur
piratebab
Site Admin
Site Admin
Messages : 5863
Inscription : 24 avr. 2016, 18:41
Localisation : sud ouest
Status : En ligne

Il serait souhaitable de t'assurer de la bonne santé de tes disques physique par exemple avec un test SMART.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

avec la commande

Code : Tout sélectionner

# smartctl -a /dev/sda
J'ai un failed pour /dev/sde
smartctl -H /dev/sde
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.19.0-0.bpo.9-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
Failed Attributes:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
5 Reallocated_Sector_Ct 0x0033 138 138 140 Pre-fail Always FAILING_NOW 493

Code : Tout sélectionner

lsblk -o name,model,size -d | grep -v loop
NAME MODEL              SIZE
sda  EXT              698,7G
sdb  MAXTOR STM316081 149,1G
sdc  MAXTOR STM316021 149,1G
sdd  MAXTOR STM316081 149,1G
sde  Ext HDD 1021       1,4T
sdk  My Passport 0748 931,5G
sr0  CDDVDW SH-S222A   1024M
sr1  DVDR1660P1        1024M
les autres de cette liste ayant un test à "Passed"

par contre, forcément le device unknown je ne peux pas le tester....
PascalHambourg
Contributeur
Contributeur
Messages : 930
Inscription : 05 août 2016, 20:25
Status : Hors-ligne

Pourrais-tu corriger les balises de ton message précédent pour attribuer correctement les citations et ne pas noyer tes réponses dedans car on ne comprend plus qui a écrit quoi.

Pour le disque en erreur SMART, il faudrait montrer tous les attributs et les logs (smartctl -a), pas seulement celui en erreur.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

Je viens de nettoyer ma première réponse en ayant essayé de l'a rendre plus aérée et claire.

La sortie de la commande

Code : Tout sélectionner

smartctl -a
affiche :

Code : Tout sélectionner

smartctl -a /dev/sde
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.19.0-0.bpo.9-amd64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Green (AF)
Device Model:     WDC WD15EARS-00Z5B1
Serial Number:    WD-WMAVU2672977
LU WWN Device Id: 5 0014ee 0021b7e11
Firmware Version: 80.00A80
User Capacity:    1 500 301 910 016 bytes [1,50 TB]
Sector Size:      512 bytes logical/physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Wed Dec  1 20:53:13 2021 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
See vendor-specific Attribute list for failed Attributes.

General SMART Values:
Offline data collection status:  (0x84)	Offline data collection activity
					was suspended by an interrupting command from host.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (  73)	The previous self-test completed having
					a test element that failed and the test
					element that failed is not known.
Total time to complete Offline 
data collection: 		(32400) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 370) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x3031)	SCT Status supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       116
  3 Spin_Up_Time            0x0027   185   181   021    Pre-fail  Always       -       5750
  4 Start_Stop_Count        0x0032   047   047   000    Old_age   Always       -       53398
  5 Reallocated_Sector_Ct   0x0033   138   138   140    Pre-fail  Always   FAILING_NOW 493
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   001   001   000    Old_age   Always       -       80926
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   098   098   000    Old_age   Always       -       2044
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       65
193 Load_Cycle_Count        0x0032   001   001   000    Old_age   Always       -       775911
194 Temperature_Celsius     0x0022   110   096   000    Old_age   Always       -       40
196 Reallocated_Event_Count 0x0032   001   001   000    Old_age   Always       -       493
197 Current_Pending_Sector  0x0032   194   194   000    Old_age   Always       -       1506
198 Offline_Uncorrectable   0x0030   200   196   000    Old_age   Offline      -       10
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   184   001   000    Old_age   Offline      -       3270

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed: unknown failure    90%     15390         -
# 2  Short offline       Completed: unknown failure    90%     15382         -
# 3  Short offline       Completed: unknown failure    90%     15366         -
# 4  Short offline       Completed: unknown failure    90%     15364         -
# 5  Short offline       Completed: unknown failure    90%     15354         -
# 6  Short offline       Completed: unknown failure    90%     15330         -
# 7  Short offline       Completed: unknown failure    90%     15306         -
# 8  Short offline       Completed: unknown failure    90%     15282         -
# 9  Short offline       Completed: unknown failure    90%     15259         -
#10  Short offline       Completed: unknown failure    90%     15235         -
#11  Short offline       Completed: unknown failure    90%     15216         -
#12  Short offline       Completed: unknown failure    90%     15189         -
#13  Short offline       Completed: unknown failure    90%     15140         -
#14  Short offline       Completed: unknown failure    90%     15116         -
#15  Short offline       Completed: read failure       50%     15092         2928550552
#16  Short offline       Completed: read failure       70%     15069         2928517520
#17  Short offline       Interrupted (host reset)      80%     15045         -
#18  Short offline       Completed: read failure       60%     15020         2928517992
#19  Short offline       Completed: read failure       70%     14996         2928518056
#20  Short offline       Completed: read failure       80%     14972         2724215047
#21  Short offline       Completed: read failure       70%     14948         2928517512

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Avatar de l’utilisateur
piratebab
Site Admin
Site Admin
Messages : 5863
Inscription : 24 avr. 2016, 18:41
Localisation : sud ouest
Status : En ligne

Je n'ai pas tout lu, mais il n'a pas l'air en forme.
Fait une sauvegarde bas niveau rapidement.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

le soucis étant que le disque dur "unknown" ne permet pas de monter le LVM et donc de récupérer les fichiers.

j'avais pensé tout d'abord à monter ce LVM et sauvegarder très vite tout ce petit monde....
PascalHambourg
Contributeur
Contributeur
Messages : 930
Inscription : 05 août 2016, 20:25
Status : Hors-ligne

genpashiro a écrit : 01 déc. 2021, 20:56 Je viens de nettoyer ma première réponse en ayant essayé de l'a rendre plus aérée et claire.
Ça reste confus et difficile à lire. Des extraits de ton premier message et de ce message sont au même niveau de citation, ce qui n'est pas cohérent.
genpashiro a écrit : 01 déc. 2021, 20:56 5 Reallocated_Sector_Ct 0x0033 138 138 140 Pre-fail Always FAILING_NOW 493
Des secteurs réalloués, c'est ennuyeux et pas rassurant, mais pas dramatique en soi dans l'immédiat même si le seuil est dépassé. Un secteur réalloué est un secteur fonctionnel. Par contre
genpashiro a écrit : 01 déc. 2021, 20:56 197 Current_Pending_Sector 0x0032 194 194 000 Old_age Always - 1506
ça, c'est plus grave car ce sont des secteur actuellement défectueux et illisibles en attente de réallocation.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

J'ai tenté de ré-édité le message, je pense qu'il est plus cohérent à présent ?

Ce disque qui présent des secteurs défectueux est reconnu et ne semble pas participer au problème de LVM pour lequel ce topic a été ouvert ?

Comme je disais plus haut, je voudrais dans un premier temps pouvoir accéder au LVM, éventuellement "réparer" ce disque malade et sauvegarder le tout
Avatar de l’utilisateur
piratebab
Site Admin
Site Admin
Messages : 5863
Inscription : 24 avr. 2016, 18:41
Localisation : sud ouest
Status : En ligne

Une sauvegarde bas niveau est indépendante du LVM ou de tout système de fichier. La commande la plus connue est attention de bien lire le manuel de cette commande, et de relire 3 fois ta ligne de commande avant de la valider (le surnom de cette commande est 'disk destroy' :))
Si tu as assez de place sur un stockage externe sauvegarde tout tes disques rapidement.
Tu pourras ainsi travailler plus sereinement sur ton probleme de LVM.
Il est possible que le problème qui affecte ce disque en affecte d'autres, si il est par exemple consécutif à un choc sur le boîtier du PC, ou a un problème sur l'alimentation.
PascalHambourg
Contributeur
Contributeur
Messages : 930
Inscription : 05 août 2016, 20:25
Status : Hors-ligne

genpashiro a écrit : 02 déc. 2021, 22:18 J'ai tenté de ré-édité le message, je pense qu'il est plus cohérent à présent ?
Oui, mais il reste à préciser la chronologie des événements et des retours de commandes entre tous tes messages.
Dans ton premier message on voit 7 disques et le volume logique actif. Dans les suivants, on voit seulement 6 disques.
Quel est l'ordre chronologique de ces relevés, et que s'est-il passé exactement avant et après chacun ?
La seule chose à peu près claire, c'est que le disque manquant est un de 1 To. Il sera impossible d'espérer récupérer quoi que ce sont tant que ce disque ne sera pas visible de façon constante avec lsblk.

J'ai testé la commande "vgreduce --removemissing --force 'VG name'", et conformément à la page de manuel elle supprime bien le LV partiel occupant un PV manquant. Donc je ne comprends pas comment le LV "nas" peut être toujours présent et actif dans les relevés de ton premier message s'ils ont été faits après et dans l'interface web d'OMV, à moins que tu l'aies recréé entretemps.

Note : il ne faut pas se fier aux noms /dev/sd* des disques, il peuvent changer à chaque démarrage. On ne peut se fier qu'aux UUID et autres identifiants persistants uniques.

Concernant le disque "manquant" retiré et réapparu, tu écris
genpashiro a écrit : 30 nov. 2021, 21:33 je l'ai rajouté dans le volume logique (...) Sur l'interface web de OMV dans Volumes Logiques -> Ajouter ->
Je ne connais pas l'interface web d'OMV. Le LV "nas" était donc présent (et pas seulement le VG "nas" - à mon avis c'est une erreur d'avoir donné le même nom aux deux, ça risque d'apporter de la confusion) ? Habituellement on se contente d'ajouter un PV à un VG (commande vgextend), pas à un LV en particulier (ce qui ne peut se faire qu'après avoir ajouté le PV au VG).
Quel était l'intitulé exact de l'action réalisée dans l'interface web ?

Actuellement, quelle est la sortie des commandes suivantes ?

Code : Tout sélectionner

lsblk -o name,model,size | grep -v loop
blkid
pvscan --cache
vgscan
lvscan
genpashiro a écrit : 02 déc. 2021, 22:18 Ce disque qui présent des secteurs défectueux est reconnu et ne semble pas participer au problème de LVM pour lequel ce topic a été ouvert ?
Possible mais une partie de ses secteurs sont illisibles. Reste à espérer qu'ils ne contiennent rien d'important. Cela va aussi compliquer la sauvegarde avec dd suggérée par piratebab.
piratebab a écrit : 03 déc. 2021, 15:29 Une sauvegarde bas niveau
Nécessite un espace de stockage équivalent à la taille totale des PV, soit environ 5 To.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

PascalHambourg a écrit : 04 déc. 2021, 11:48
genpashiro a écrit : 02 déc. 2021, 22:18 J'ai tenté de ré-édité le message, je pense qu'il est plus cohérent à présent ?
Oui, mais il reste à préciser la chronologie des événements et des retours de commandes entre tous tes messages.
Dans ton premier message on voit 7 disques et le volume logique actif. Dans les suivants, on voit seulement 6 disques.
Quel est l'ordre chronologique de ces relevés, et que s'est-il passé exactement avant et après chacun ?
La seule chose à peu près claire, c'est que le disque manquant est un de 1 To. Il sera impossible d'espérer récupérer quoi que ce sont tant que ce disque ne sera pas visible de façon constante avec lsblk.
Oui, le disque manquant est celui de 1To, de marque "Hitachi". En fait, je dois avouer que je sais plus comment cela s'est produit, les dossiers partagés via samba n'étaient plus accessibles, donc sur le nas/LVM. J'ai bougé un peu le PC pour brancher un écran et un clavier et le Hitachi contenu dans un boitier 3"5 a chuté, je l'ai donc remplacé mais depuis ce DD est tantôt (je ne sais pas de quoi cela dépend...) reconnu tantôt plus reconnu...c'est perturbant
PascalHambourg a écrit : 04 déc. 2021, 11:48 J'ai testé la commande "vgreduce --removemissing --force 'VG name'", et conformément à la page de manuel elle supprime bien le LV partiel occupant un PV manquant. Donc je ne comprends pas comment le LV "nas" peut être toujours présent et actif dans les relevés de ton premier message s'ils ont été faits après et dans l'interface web d'OMV, à moins que tu l'aies recréé entretemps.

Note : il ne faut pas se fier aux noms /dev/sd* des disques, il peuvent changer à chaque démarrage. On ne peut se fier qu'aux UUID et autres identifiants persistants uniques.
Au niveau OMV, quand le disque est "unknow", le LV est en "active" non, il le redevient quand le disque est donc reconnu mais dans le système de fichiers, le périphérique /dev/dm-0 (contenant donc le LVM) est non monté et le bouton "Monté" est grisé
PascalHambourg a écrit : 04 déc. 2021, 11:48 Concernant le disque "manquant" retiré et réapparu, tu écris
genpashiro a écrit : 30 nov. 2021, 21:33 je l'ai rajouté dans le volume logique (...) Sur l'interface web de OMV dans Volumes Logiques -> Ajouter ->
Je ne connais pas l'interface web d'OMV. Le LV "nas" était donc présent (et pas seulement le VG "nas" - à mon avis c'est une erreur d'avoir donné le même nom aux deux, ça risque d'apporter de la confusion) ? Habituellement on se contente d'ajouter un PV à un VG (commande vgextend), pas à un LV en particulier (ce qui ne peut se faire qu'après avoir ajouté le PV au VG).
Quel était l'intitulé exact de l'action réalisée dans l'interface web ?
Une fois reconnu, le DD apparaît donc dans l'onglet "Volumes physique" mais n'appartient donc a aucun groupe de volumes, l'action a consisté à l'ajouter dans le volume logique.
PascalHambourg a écrit : 04 déc. 2021, 11:48 Actuellement, quelle est la sortie des commandes suivantes ?

Code : Tout sélectionner

lsblk -o name,model,size | grep -v loop
blkid
pvscan --cache
vgscan
lvscan
[/quote]

Code : Tout sélectionner

lsblk -o name,model,size | grep -v loop
NAME   MODEL              SIZE
sda    MAXTOR STM316081 149,1G
├─sda1                     10G
├─sda2                      1K
├─sda3                  136,4G
└─sda5                    2,8G
sdb    MAXTOR STM316021 149,1G
└─sdb1                  149,1G
sdc    MAXTOR STM316081 149,1G
└─sdc1                  149,1G
sdd    Ext HDD 1021       1,4T
└─sdd1                    1,4T
sde    EXT              698,7G
sdf    My Passport 0748 931,5G
└─sdf1                  931,5G
sr0    CDDVDW SH-S222A   1024M
sr1    DVDR1660P1        1024M

Code : Tout sélectionner

pvscan --cache
WARNING: Device for PV R7bOf7-yWeU-Kpmp-3agi-LYPA-zCcw-2H06lp not found or rejected by a filter.
  PV /dev/sda3   VG nas             lvm2 [136,36 GiB / 0    free]
  PV /dev/sdb1   VG nas             lvm2 [149,05 GiB / 0    free]
  PV /dev/sdc1   VG nas             lvm2 [149,05 GiB / 0    free]
  PV /dev/sdd1   VG nas             lvm2 [1,36 TiB / 0    free]
  PV /dev/sdf1   VG nas             lvm2 [931,48 GiB / 0    free]
  PV /dev/sde    VG nas             lvm2 [698,63 GiB / 0    free]
  PV [unknown]   VG nas             lvm2 [931,51 GiB / 0    free]
  Total: 7 [4,29 TiB] / in use: 7 [4,29 TiB] / in no VG: 0 [0   ]

Code : Tout sélectionner

vgscan
Reading volume groups from cache.
  WARNING: Device for PV R7bOf7-yWeU-Kpmp-3agi-LYPA-zCcw-2H06lp not found or rejected by a filter.
  Found volume group "nas" using metadata type lvm2

Code : Tout sélectionner

lvscan
WARNING: Device for PV R7bOf7-yWeU-Kpmp-3agi-LYPA-zCcw-2H06lp not found or rejected by a filter.
  inactive          '/dev/nas/nas' [4,29 TiB] inherit
PascalHambourg a écrit : 04 déc. 2021, 11:48
genpashiro a écrit : 02 déc. 2021, 22:18 Ce disque qui présent des secteurs défectueux est reconnu et ne semble pas participer au problème de LVM pour lequel ce topic a été ouvert ?
Possible mais une partie de ses secteurs sont illisibles. Reste à espérer qu'ils ne contiennent rien d'important. Cela va aussi compliquer la sauvegarde avec dd suggérée par piratebab.
piratebab a écrit : 03 déc. 2021, 15:29 Une sauvegarde bas niveau
Nécessite un espace de stockage équivalent à la taille totale des PV, soit environ 5 To.
Impossible de faire une sauvegarde avecc dd, aucun support de stockage de 5To ou moins sous la main
PascalHambourg
Contributeur
Contributeur
Messages : 930
Inscription : 05 août 2016, 20:25
Status : Hors-ligne

genpashiro a écrit : 04 déc. 2021, 18:17 le Hitachi contenu dans un boitier 3"5 a chuté, je l'ai donc remplacé mais depuis ce DD est tantôt (je ne sais pas de quoi cela dépend...) reconnu tantôt plus reconnu
Tu parles d'un boîtier USB pour disque SATA ? Tu as remplacé le boîtier ou le disque ? Plus haut tu disais avoir remplacé le boîtier.
Quoi qu'il en soit, tu ne t'en sortiras pas avec un disque qui n'est pas reconnu de façon stable. Il faut régler ça d'une façon ou d'une autre. Actuellement, il n'est pas reconnu. Si c'est un boîtier USB, tu peux le débrancher et le rebrancher, vérifier s'il est reconnu avec lsblk et sinon regarder dans les logs du noyau avec dmesg.

Concernant l'historique de LVM, tu devrait trouver
- un fichier /etc/lvm/backup/nas décrivant l'organisation actuelle du VG
- des fichiers d'archive /etc/lvm/archive/nas_000NN-*.vg créés avant chaque modification du VG, mentionnant notamment la commande exécutée.

Code : Tout sélectionner

ls -ltr /etc/lvm/{archive,backup}
Ça vaudrait le coup d'examiner et comparer le contenu de tous les fichiers à partir du dernier qui précède la date de l'événement.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

Je viens de changer le port USB et le DD en question (Hitachi) est reconnu cette fois-ci !

Hier, j'ai relancé la commande

Code : Tout sélectionner

 vgreduce --removemissing --force nas 
du coup, à ce matin on a donc :

Code : Tout sélectionner

nas# pvscan
  PV /dev/sda3   VG nas             lvm2 [136,36 GiB / 136,36 GiB free]
  PV /dev/sdb1   VG nas             lvm2 [149,05 GiB / 149,05 GiB free]
  PV /dev/sdc1   VG nas             lvm2 [149,05 GiB / 149,05 GiB free]
  PV /dev/sdd1   VG nas             lvm2 [1,36 TiB / 1,36 TiB free]
  PV /dev/sdf1   VG nas             lvm2 [931,48 GiB / 931,48 GiB free]
  PV /dev/sde    VG nas             lvm2 [698,63 GiB / 698,63 GiB free]
  PV /dev/sdl1                      lvm2 [931,51 GiB]
  Total: 7 [4,29 TiB] / in use: 6 [3,38 TiB] / in no VG: 1 [931,51 GiB]
Il n'appartient donc à un aucun VG et le VL n'est pas présent dans l'interface de OMV.

La sortie de

Code : Tout sélectionner

nas# blkid
/dev/sda1: UUID="4c1760f7-0ff6-494c-93bc-2811d55b28f6" TYPE="ext4" PTTYPE="dos" PARTUUID="ea4417e3-01"
/dev/sda3: UUID="Fmbn23-7GO1-IiOY-dAIQ-NRdn-oyFn-94xJip" TYPE="LVM2_member" PARTUUID="ea4417e3-03"
/dev/sda5: UUID="0d732339-60ce-4741-a5f9-e285e6f3e377" TYPE="swap" PARTUUID="ea4417e3-05"
/dev/sdb1: UUID="532fnK-lf37-c1gL-pCFL-2OGu-ke8I-pVNG7E" TYPE="LVM2_member" PARTUUID="b1dabbcd-1809-4f11-b2f3-d5d61056fa38"
/dev/sdc1: UUID="3v0cUj-aIAE-uM4R-mjdV-5o9X-2JlV-W5oSvH" TYPE="LVM2_member" PARTUUID="efe8c6d4-67c8-49cd-bf93-0a44f22e6e52"
/dev/sdd1: UUID="KVfoEw-udtY-mhvL-spjc-n2Xj-BueL-ug1WoO" TYPE="LVM2_member" PARTUUID="c36a5d69-750a-4716-8ad1-0d5bb1cb9b40"
/dev/sde: UUID="glgoo1-1jP5-SPNA-is2P-ImGR-1csB-wAWg43" TYPE="LVM2_member"
/dev/sdf1: UUID="du2AyX-3wq0-hV9g-3Rlj-Xdm4-mHrp-XuJ3bp" TYPE="LVM2_member" PARTUUID="00023f15-01"
[color=#0040FF]/dev/sdl1: UUID="R7bOf7-yWeU-Kpmp-3agi-LYPA-zCcw-2H06lp" TYPE="LVM2_member" PARTUUID="373b6205-b3db-47b4-82f5-31a92a754c74"
[/color]
Est-il possible de l'inclure au VG et ainsi remonter le LV ?
PascalHambourg
Contributeur
Contributeur
Messages : 930
Inscription : 05 août 2016, 20:25
Status : Hors-ligne

Oublie l'interface d'OMV sinon on ne s'en sortira pas.
Est-ce que lvscan affiche le LV ? Je suppose que non car le LV a dû être supprimé par vgreduce (c'est là ton erreur à mon avis).
Tu peux réintégrer le PV au VG avec vgextend, mais je doute que ça fasse revenir le LV. A mon avis la seule chance de retrouver le LV est de restaurer la configuration de LVM avec une archive datant d'avant l'apparition du problème. Cf. la fin de mon message précédent.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

lvscan n'affiche donc rien.

le listing de

Code : Tout sélectionner

ls -ltr /etc/lvm/archive
affiche ceci :

Code : Tout sélectionner

total 44
-rw------- 1 root root 2988 déc.  22  2019 nas_00005-1874121992.vg
-rw------- 1 root root 3258 déc.  22  2019 nas_00006-950835729.vg
-rw------- 1 root root  875 nov.  12  2020 NAS_00000-757710350.vg
-rw------- 1 root root 3413 nov.  12  2020 nas_00007-958152706.vg
-rw------- 1 root root 3684 nov.  12  2020 nas_00008-1352406803.vg
-rw------- 1 root root 3862 nov.  29 20:53 nas_00009-1254290722.vg
-rw------- 1 root root 2123 nov.  29 21:05 nas_00010-1554766249.vg
-rw------- 1 root root 2124 nov.  29 21:05 nas_00011-691269872.vg
-rw------- 1 root root 2098 nov.  29 21:13 nas_00012-2108331914.vg
-rw------- 1 root root 2364 nov.  29 21:14 nas_00013-92203144.vg
-rw------- 1 root root 3866 déc.   4 23:08 nas_00014-1598051605.vg
Du coup , je pense que la restauration d"un fichier de config au 29 novembre 2021 peut m'aider ?
PascalHambourg
Contributeur
Contributeur
Messages : 930
Inscription : 05 août 2016, 20:25
Status : Hors-ligne

Peux-tu poster le contenu des fichiers /etc/lvm/archive/nas_000{09 à 14}-*.vg et /etc/lvm/backup/nas ou bien les joindre dans une archive ?
En principe c'est le 00009 qui devrait nous intéresser pour la restauration mais je voudrais vérifier et voir les événements à l'origine de chaque fichier.
genpashiro
Membre
Membre
Messages : 214
Inscription : 25 sept. 2018, 15:07
Localisation : Douai, Nord
Status : Hors-ligne

voici

https://jirafeau.leblais.net/f.php?h=1_8joNiO&d=1

le jirafeau est hébergé chez moi, sur une autre machine ;)
Répondre