{"id":531,"date":"2021-12-29T11:21:11","date_gmt":"2021-12-29T10:21:11","guid":{"rendered":"https:\/\/esferas.org\/mldt\/?p=531"},"modified":"2021-12-29T11:23:31","modified_gmt":"2021-12-29T10:23:31","slug":"disco-raid-con-offline-uncorrectable-sector-i","status":"publish","type":"post","link":"https:\/\/esferas.org\/mldt\/disco-raid-con-offline-uncorrectable-sector-i\/","title":{"rendered":"Disco RAID con offline uncorrectable sector (I)"},"content":{"rendered":"\n<p>Que ya lleva varios d\u00edas (tal vez semanas) avisando de la situaci\u00f3n y no parece que mejore si se le ignora. <\/p>\n\n\n\n<!--more-->\n\n\n\n<p>As\u00ed que s\u00ed, me he puesto con ello porque es parte de un array de discos de tipo 1 que se emplea directamente como soporte de las copias de seguridad. <\/p>\n\n\n\n<p>Los avisos los estoy recibiendo por correo electr\u00f3nico con el siguiente cuerpo de mensaje:<\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">This message was generated by the smartd daemon running on:\n\n   host name:  backups\n   DNS domain: empresa.net\n\nThe following warning\/error was logged by the smartd daemon:\n\nDevice: \/dev\/sdc [SAT], 1 Currently unreadable (pending) sectors\n\nDevice info:\nWDC WD3003FZEX-00Z4SA0, S\/N:WD-WMC130D380P0, WWN:5-0014ee-0ae920ddf, FW:01.01A01, 3.00 TB\n\nFor details see host's SYSLOG.<\/pre>\n\n\n\n<p>Por lo que lo primero que he hecho ha sido sacarlo del array de discos, indicando primero que tiene fallos y pasando despu\u00e9s a decirle que no cuente con \u00e9l. <\/p>\n\n\n\n<pre class=\"wp-block-preformatted has-white-color has-black-background-color has-text-color has-background\"># mdadm --fail \/dev\/md0 \/dev\/sdc\n# mdadm --fail \/dev\/md0 --remove \/dev\/sdc1\n<\/pre>\n\n\n\n<p>Ahora tengo algunas dudas sobre c\u00f3mo proceder. Se supone que estos discos llevan desde hace a\u00f1os ellos solitos la gesti\u00f3n de los bloques defectuosos. Como he podido ver en la red a respuestas a esta pregunta (qu\u00e9 hacer en este caso), si por alguna raz\u00f3n el firmware del disco no puede registrar m\u00e1s o le falta una limpieza de estos sectores aparece el error de manera regular. <\/p>\n\n\n\n<p>As\u00ed que ahora que el disco no tiene uso en el sistema he puesto en marcha un test propio para ver si mejora en algo o no. <\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">root@backups:~#  smartctl -t offline \/dev\/sdc\nsmartctl 6.6 2017-11-05 r4594 [x86_64-linux-4.19.0-16-amd64] (local build)\nCopyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org\n\n=== START OF OFFLINE IMMEDIATE AND SELF-TEST SECTION ===\nSending command: \"Execute SMART off-line routine immediately in off-line mode\".\nDrive command \"Execute SMART off-line routine immediately in off-line mode\" successful.\nTesting has begun.\nPlease wait 30720 seconds for test to complete.\nTest will complete after <strong>Wed Dec 29 19:41:45 2021<\/strong>\n\nUse smartctl -X to abort test.<\/pre>\n\n\n\n<p id=\"block-021c4148-9ee9-467b-8422-037d830c4bed\"><br \/>Tendr\u00e9 que esperar a esta noche (mejor ma\u00f1ana) para ver si el test ha funcionado. Una l\u00e1stima porque tengo pensado actualizarlo a Debian 11 y me tocar\u00e1 volver ma\u00f1ana me guste o no. <\/p>\n\n\n\n<p>En otro orden de cosas y por si algo de esto falla estoy m\u00e1s o menos preparado para sustituirlo por otro disco que tengo en espera de 4Tb. He pensado en crear una partici\u00f3n de 3Tb, a\u00f1adirlo al RAID y cuando m\u00e1s adelante tenga que comprar otro disco lo har\u00e9 de 4Tb y luego probar\u00e9 a ampliar las particiones para no desperdiciar ese terabyte que me queda suelto. <\/p>\n\n\n\n<p>Tambi\u00e9n pens\u00e9 en crear una partici\u00f3n con ese espacio y usarla para otra cosa pero luego he visto que no ser\u00eda bueno para el rendimiento si parte del disco est\u00e1 usado por otro proceso que no sea el RAID. <\/p>\n\n\n\n<p>Continuar\u00e9 la entrada &#8230; <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Que ya lleva varios d\u00edas (tal vez semanas) avisando de la situaci\u00f3n y no parece que mejore si se le ignora.<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"webmentions_disabled_pings":false,"webmentions_disabled":false,"footnotes":""},"categories":[72],"tags":[14,30,29,31,208],"class_list":["post-531","post","type-post","status-publish","format-standard","hentry","category-problemas-y-errores","tag-backups","tag-errores","tag-hardware","tag-raid","tag-smartd","content-box"],"_links":{"self":[{"href":"https:\/\/esferas.org\/mldt\/wp-json\/wp\/v2\/posts\/531","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/esferas.org\/mldt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/esferas.org\/mldt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/esferas.org\/mldt\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/esferas.org\/mldt\/wp-json\/wp\/v2\/comments?post=531"}],"version-history":[{"count":6,"href":"https:\/\/esferas.org\/mldt\/wp-json\/wp\/v2\/posts\/531\/revisions"}],"predecessor-version":[{"id":540,"href":"https:\/\/esferas.org\/mldt\/wp-json\/wp\/v2\/posts\/531\/revisions\/540"}],"wp:attachment":[{"href":"https:\/\/esferas.org\/mldt\/wp-json\/wp\/v2\/media?parent=531"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/esferas.org\/mldt\/wp-json\/wp\/v2\/categories?post=531"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/esferas.org\/mldt\/wp-json\/wp\/v2\/tags?post=531"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}