Problema con HDD SATA. Relacionado con RAID y AHCI.

Hola. Necesito ayuda. Os cuento la situación y a ver qué se puede hacer, si es que se puede hacer algo.

Tengo tres discos duros conectados por SATA. Dos de ellos SSD y un tercero mecánico. Cree un RAID 0 mediante la placa base con los dos SSD, dejando al mecánico fuera. El tema es que para poder crear el RAID, la BIOS me obligaba a cambiar el controlador de AHCI a RAID y así lo hice. Me ha estado funcionando todo perfecto, hasta que he decidido deshacer el RAID 0 de los SSD, ya que quería hacerlo nuevamente desde Linux, en vez de desde la placa base. La sorpresa ha sido que, al deshacer el RAID de estos discos duros y al cambiar de nuevo el controlador de RAID a AHCI, ya no puedo acceder al disco duro mecánico. El sistema sí que lo ve, pero algo raro ha pasado. Muestra una partición primaria con aproximadamente la mitad del espacio y después otros dos bloques de espacio no asignado, uno con exactamente el mismo espacio que la partición primaria y el otro con espacio residual.

Añado info extra que me he dejado y que puede que sea importante. Puedo ver el disco mecánico, pero solamente si vuelvo a configurar el controlador SATA en RAID. Si lo configuro en AHCI no puedo verlo. Y otra cosa que no sé si puede ser relevante, pero por si acaso la comento. Soy un kamikaze y además de esto y además me dio por actualizar la BIOS a su última versión justo antes de realizar todo lo que os he comentado. O sea, actualicé la BIOS y después deshice el RAID y cambié de RAID a AHCI.

¿Se os ocurre algo que pueda hacer para solucionarlo? No he tocado nada en este disco duro. Lo único que he hecho, ha sido lo ya comentado. Deshacer el RAID y cambiar el controlador SATA de RAID a AHCI. Tiene toda la pinta de que no vaya a poder volver a acceder a los datos, pero ojalá haya manera de solucionarlo.

¡Ayuda, porfa! [beer]

P.D.: Más info. He sacado el disco y lo he conectado externamente mediante USB. Misma situación, lo puedo ver, pero no puedo acceder a los datos. Además he comprobado que ahora sí que puedo ver el disco tanto en RAID, como en AHCI. Tiene mala pinta y voy asumiendo que me quedo sin mis datos, que eran bastantes (4TB prácticamente lleno).
No debería tener nada que ver el hecho de actualizar la bios porque la controladora tiene su propio firmware. Igualmente como dices no parece muy sensato hacer muchas cosas “delicadas” de golpe, sobre todo si no quieres perder datos en el proceso.

Que al cambiar de modo raid a ahci en windows no se vea el disco me parece normal, ya que si nunca ha estado instalado de otra manera te faltará el driver de Microsoft (msahci). El driver del fabricante (iastor en el caso de intel y no recuerdo en el caso de amd) probablemente esperara la controladora en modo raid. Esto puede arreglarse arrancando en modo seguro y cambiando una clave del registro, era bastante habitual hace unos años para pasar de ide emulado sobre sata a ahci, y debería funcionar en tu caso también. Si ya se ve el disco en windows es que ya se ha cargado el driver correctamente.

Lo que no es normal es que por usb o similar no veas los datos. Si no tenías configuraciones raras eso debería verse tal cual. Prueba ddrescue desde un disco booteable, empieza por hacer una imagen completa del disco duro a un almacenamiento diferente y muy probablemente puedas recuperar todo o casi todo. Yo no haría más “experimentos” en el disco físico antes de tener esa imagen.

Saludos
@Pollonidas Gracias por responder. ;)

El disco de los datos no lo he tocado. Lo único que he hecho es lo de deshacer el raid y cambiar de RAID a AHCI en la BIOS. Más la imprudencia de actualizar la propia BIOS. Intentaré informarme todo lo que pueda antes de tocar nada que pueda resultar definitivo, si es que no lo es ya. El tema es que lo que contenían los discos del raid, precisamente lo pase al mecánico antes de deshacer el array. Pero el resultado no me lo esperaba. Creo que, de alguna manera, al crear el RAID y englobar el controlador a todo lo conectado por SATA, ha acabado afectando también al disco duro mecánico. La IA me dice que pueden ser retales de algo de RAID que que ha quedado en la partición y que por eso los sistemas operativos se confunden al leerlo. La verdad es que no controlo mucho de este tema. así que a ver cómo acaba esto. Que no tengo datos extremadamente importantes, pero igualmente me gustaría conservarlos de ser posible. Porque por ejemplo ese disco tiene horas de filtrados de roms, de parcheos al castellano, etc... Entre otras cosas.

Esperaré a lo que me podáis decir por aquí para ayudarme, así como en algún otro foro que también he pedido ayuda. Eso sí, al final tendré que lanzarme a la aventura, porque no tengo otro disco del mismo tamaño para poder clonarlo. [tomaaa] Gracias nuevamente.
@SirAzraelGrotesque de casualidad ese disco lo has estado manipulando o quiero decir accediendo a el cuando estabas en el linux cachyos ?

yo tuve un problema similar con un disco mecanico de 1tb no relacionado con raid y ahci

la cosa que lo tengo con unos roms isos y el disco en ntfs , accedi varias veces a el para leer copiar ver algunos isos y rorms desde el cachyos y al final me lo dejo inaccesible

solo pude volver a ver los datos al hacer en linux ...... disks ... seleccionar el disco .... adicional particions opciones..... repair fliesystem


esto no formatea el disco en mi caso lo volvio a dejar accesible para poder ver mis datos

me dio un buen susto y me falto decir que lo hice con un usb live de linux mint
@roldanpesqui No. Solamente lo he intentado, pero sin éxito. He podido ver que está y que tiene las particiones como no debería, ya que en principio solamente tenía una primaria con la totalidad del espacio y como mucho podía tener algo de espacio residual sin particionar. Pero está como bloqueado, no me deja acceder a él ni montarlo como unidad. Viendo lo que me muestra, tanto desde Linux, como desde Windows 10, me da que está liado el tema de las particiones y los SO se confunde y ven dos partes, cuando tendría que haber solamente una o algo así.

Nuevamente, gracias por tu ayuda. ;) A ver si se puede avanzar y logro recuperarlo. :D
Si la cuestión es que un raid por hardware (es decir, hecho con la controladora) no debería escribir absolutamente nada en un disco que no es parte del raid. Y si hubiera sido por software tampoco, pero bueno, en tu caso no aplica. Así que lo que te dicen las IAs tomalo “with a grain of salt”.

¿Has probado a crear, por ejemplo, un raid0 de un solo disco con la controladora en modo raid?

Sea como sea yo antes de probar nada como te digo haría una imagen del disco tal como está, con dd o ddrescue. Si no tienes un disco lo bastante grande para esa imagen, valora si es más barato un disco de 5TB o los datos, yo personalmente lo tendría claro, máxime teniendo en cuenta lo que cobran los servicios de recuperación (si es complicado hablamos de 4 cifras, si es fácil rara vez menos de 300€)

Saludos
Pollonidas escribió:Si la cuestión es que un raid por hardware (es decir, hecho con la controladora) no debería escribir absolutamente nada en un disco que no es parte del raid. Y si hubiera sido por software tampoco, pero bueno, en tu caso no aplica. Así que lo que te dicen las IAs tomalo “with a grain of salt”.

¿Has probado a crear, por ejemplo, un raid0 de un solo disco con la controladora en modo raid?

Sea como sea yo antes de probar nada como te digo haría una imagen del disco tal como está, con dd o ddrescue. Si no tienes un disco lo bastante grande para esa imagen, valora si es más barato un disco de 5TB o los datos, yo personalmente lo tendría claro, máxime teniendo en cuenta lo que cobran los servicios de recuperación (si es complicado hablamos de 4 cifras, si es fácil rara vez menos de 300€)

Saludos


Eso pienso yo. Y eso pensaba yo cuando deshice el RAID y volví a AHCI, pero mira lo que me está pasando. Así que supongo de de algún modo ese controlador RAID habrá afectado de algún modo al disco mecánico que no estaba en el RAID 0.

No he probado a crear un nuevo RAID con un solo disco. Lo probaré. De momento he vuelto a crear el RAID 0 y voy a probar a reinstalar los controladores RAID de la placa, a ver qué pasa.

La verdad es que, aunque me jodería perder las cosas, tampoco hay nada vital importancia. Así que no contemplo la opción de comprar otro disco duro. Le he preguntado a un amigo a ver si tiene uno para prestármelo, pero de ese tamaño lo dudo. Un disco de esa capacidad se tiene para usarlo, difícilmente tenga alguien uno vacío. [reojillo] Si no consigo uno prestado y no consigo acceder al disco sin mayores probaturas, tarde o temprano me tocará lanzarme a la aventura.

Gracias nuevamente.

P.D.: He activado de nuevo el controlador RAID, he creado nuevamente el RAID 0 he reinstalado el controlador RAID y ahora (de momento en Windows 10) puedo ver el RAID 0 pero no puedo ver el disco duro de 4TB. :-?
Ya me imagino que es complicado, pero vaya, habiendo discos externos de 4TB por unos 100€ yo personalmente lo tendría claro, teniendo en cuenta que es algo que potencialmente se puede aprovechar en un futuro. Pero lo dicho, valóralo tú.

¿Que salida te da fdisk -l? ¿Y gparted qué particiones ve en el disco mecánico? Incluso si usas windows probablemente sea más sencillo tirar de este hilo desde un linux live.

Saludos
@Pollonidas La salida de fdisk -l:

Disk /dev/sda: 465.76 GiB, 500107862016 bytes, 976773168 sectors
Disk model: CT500MX500SSD1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x8a69eb7e

Device Boot Start End Sectors Size Id Type
/dev/sda1 63 976748606 976748544 465.8G 82 Linux swap / Solaris


Disk /dev/sdb: 465.76 GiB, 500107862016 bytes, 976773168 sectors
Disk model: CT500MX500SSD1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x5a478596

Device Boot Start End Sectors Size Id Type
/dev/sdb1 63 976748606 976748544 465.8G 82 Linux swap / Solaris

Partition 1 does not start on physical sector boundary.


Disk /dev/sdc: 3.64 TiB, 4000787030016 bytes, 7814037168 sectors
Disk model: WDC WD40EFRX-68N
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x1d90e6e9

Device Boot Start End Sectors Size Id Type
/dev/sdc1 63 3519021118 3519021056 1.6T 82 Linux swap / Solaris

Partition 1 does not start on physical sector boundary.


Disk /dev/nvme1n1: 238.47 GiB, 256060514304 bytes, 500118192 sectors
Disk model: WDC WDS256G1X0C-00ENX0
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: C6E9BD0D-E7F1-40DD-B36E-CA09E4FFC0EA

Device Start End Sectors Size Type
/dev/nvme1n1p1 2048 206847 204800 100M EFI System
/dev/nvme1n1p2 206848 239615 32768 16M Microsoft reserved
/dev/nvme1n1p3 239616 498969178 498729563 237.8G Microsoft basic data
/dev/nvme1n1p4 498970624 500115455 1144832 559M Windows recovery environment


Disk /dev/nvme0n1: 1.82 TiB, 2000398934016 bytes, 3907029168 sectors
Disk model: Samsung SSD 990 EVO Plus 2TB
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 7E354CBF-C6D3-4B24-A29F-E84300985409

Device Start End Sectors Size Type
/dev/nvme0n1p1 4096 618495 614400 300M EFI System
/dev/nvme0n1p2 618496 3907029101 3906410606 1.8T Linux filesystem


Disk /dev/sdd: 57.81 GiB, 62075699200 bytes, 121241600 sectors
Disk model: DataTraveler 3.0
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x0003903b

Device Boot Start End Sectors Size Id Type
/dev/sdd1 * 2048 121241535 121239488 57.8G c W95 FAT32 (LBA)


Disk /dev/loop0: 2.36 GiB, 2531971072 bytes, 4945256 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/zram0: 31.25 GiB, 33553383424 bytes, 8191744 sectors
Units: sectors of 1 * 4096 = 4096 bytes
Sector size (logical/physical): 4096 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Y con gparted veo una partición inaccesible, de aproximadamente la mitad del espacio y luego el resto, espacio sin particionar.

Sigo investigando y se me ha abierto un poco de esperanza de poder recuperar los datos. Creo que es solamente de recuperar el estado normal de la partición, ya que no he tocado el disco para nada. Solamente había una principal con todo el espacio. Aunque voy a intentar conseguir otro disco para clonarlo y así al menos tener todas las oportunidades que quiera y no jugármela a solo una.

¿Qué conclusiones sacas tú con la info de fdisk?
SirAzraelGrotesque escribió:Sigo investigando y se me ha abierto un poco de esperanza de poder recuperar los datos. Creo que es solamente de recuperar el estado normal de la partición, ya que no he tocado el disco para nada. Solamente había una principal con todo el espacio. Aunque voy a intentar conseguir otro disco para clonarlo y así al menos tener todas las oportunidades que quiera y no jugármela a solo una.

¿Qué conclusiones sacas tú con la info de fdisk?

Mientras no hayas escrito nada los datos deberían seguir ahí. Por eso te decía lo de crear la imagen, para poder probar cosas sin arriesgarnos a empeorar el problema.

La conclusión que saco es que algunos metadatos que escribe la controladora raid se interpretan incorrectamente y por eso salen particiones que no son (como linux swap en lugar de NTFS, y de tamaño incorrecto) y no puedes montar el disco

Yo quizás empezaría por usar testdisk para reconstruir la tabla de particiones
sudo testdisk /dev/sdc


Si tras seguir los pasos no funciona y/o sigue igual puedes intentar montar la partición "a la fuerza" si consigues identificar el offset. Eso se puede hacer con lo siguiente
sudo hexdump -C -n 1000000000 -v /dev/sdc | grep -b "NTFS"

Eso debería mostrar una o más líneas con lo siguiente:
[byte_offset] NTFS

Como fdisk dice que el tamaño de sector son 512, divide ese número entre 512
sector_offset = byte_offset / 512


Con ese valor solo queda intentar montarlo:
sudo mkdir /mnt/ntfs_recover
sudo mount -t ntfs -o ro,loop,offset=LO_QUE_ACABAS_DE_CALCULAR /dev/sdc /mnt/ntfs_recover


A ver si hay suerte. Lo de montarlo no debería ser muy peligroso, si te equivocas en el offset simplemente fallará, pero aun así... yo trabajaría sobre una imagen por precaución.

Saludos
@Pollonidas ¡Muchísimas gracias! Me lo apunto todo y lo voy a probar, aunque lo dejo como muy pronto para mañana, que empiezo a estar cansado y estas cosas es mejor hacerlas tras haber dormido mucho y bien. ;) A ver si me prestan un disco duro y si no, no me quedará más remedio que comprar uno. De todos modos, aunque no consiguiera recuperar los datos, le daré uso. XD

P.D.: El disco que tengo ahora es un "Red", que me costó una buena pasta. Pero no quiero gastar tanto ahora mismo. ¿Sería buena idea comprar un "Green", que son más baratos? El que tengo lo utilizo para estar mucho rato en uso, ahí pongo las descargas por ejemplo de emule y de torrent y comparto bastantes horas al día. La cosa sería seguir utilizando este para lo mismo y utilizar el "Green" para lo que vaya a ser más definitivo, para que tenga menos lecturas y escrituras, ¿no?
@SirAzraelGrotesque a mí no me gustan demasiado los green porque para ahorrar energía aparcan cabezales con (a mi juicio) demasiada frecuencia, y en el pasado han tenido problemas de durabilidad por ello.

Pero en principio para almacenar datos sin problema. Te recomiendo eso sí que sean CMR y no SMR, lo segundo rinde bastante peor en escrituras pequeñas y prolongadas. Algunos green creo que son SMR. Esto tampoco es muy grave si es para datos.

Saludos
@Pollonidas Por si sirve de algo, y suena la flauta, que yo no lo recuerdo bien, huyo del RAID desde aquellos montajes con Intel con un montaje de SSD de escasa capacidad y HDD's (me parece que era el Rapid Storage y el Optane ...), ya que los dejaban ilegibles y la única solución que yo ví fue el formateo además de que se jodió el SSD, había una solución pero no recuerdo cuál era, puede que le esté pasando lo mismo y pueda recuperar la información, pero me parece que dependía un disco del otro y no haber tocado mucho, ya digo que no lo recuerdo, y me parece que había que deshacerlo antes de y no después de.
tzadkiel2 escribió:@Pollonidas Por si sirve de algo, y suena la flauta, que yo no lo recuerdo bien, huyo del RAID desde aquellos montajes con Intel con un montaje de SSD de escasa capacidad y HDD's (me parece que era el Rapid Storage y el Optane ...), ya que los dejaban ilegibles y la única solución que yo ví fue el formateo además de que se jodió el SSD, había una solución pero no recuerdo cuál era, puede que le esté pasando lo mismo y pueda recuperar la información, pero me parece que dependía un disco del otro y no haber tocado mucho, ya digo que no lo recuerdo, y me parece que había que deshacerlo antes de y no después de.


Pero mi disco no estaba dentro del RAID0 que monté con dos SSDs. Es un disco de 4TB mecánico, pero el problema creo que es que al estar todos conectados por SATA y solamente dejar seleccionar el controlador RAID o AHCI, pero no ambos a la vez, algo le ha pasado al disco mecánico que tal como tú dices, le hace depender de alguna manera del RAID. Pero nunca formó parte del RAID en sí, tiene que ser tema de los controladores y de lo que estos han hecho con la partición del disco.

Gracias por responder. ;)

Pollonidas escribió:@SirAzraelGrotesque a mí no me gustan demasiado los green porque para ahorrar energía aparcan cabezales con (a mi juicio) demasiada frecuencia, y en el pasado han tenido problemas de durabilidad por ello.

Pero en principio para almacenar datos sin problema. Te recomiendo eso sí que sean CMR y no SMR, lo segundo rinde bastante peor en escrituras pequeñas y prolongadas. Algunos green creo que son SMR. Esto tampoco es muy grave si es para datos.Saludos


Al final voy a pasar de comprar el disco. Me la jugaré a una sola carta. Eso sí, me lo estoy pensando muy bien antes de ponerme a ello. Cuanta más info pueda conseguir, mejor.

Por descartar he puesto los valores por defecto de la BIOS. No ha servido. He configurado por no sé cuánta vez los SATA con el controlador RAID. He probado con RAID0 en los otros dos discos duros nuevamente. También eliminando de nuevo el RAID0. Nada me ha funcionado por el momento.

Probaré con los comandos que me pusiste. ¡Son mi última esperanza! xD

P.D.: ¡Solucionado! ¡Qué puta emoción! XD ¡Muchísimas gracias a todos! En especial a ti, @Pollonidas. Lo he podido solucionar con testdisk. Se ha restaurado la partición y ahora ya lo veo con normalidad, está accesible y montada la unidad. [beer]
SirAzraelGrotesque escribió:P.D.: ¡Solucionado! ¡Qué puta emoción! XD ¡Muchísimas gracias a todos! En especial a ti, @Pollonidas. Lo he podido solucionar con testdisk. Se ha restaurado la partición y ahora ya lo veo con normalidad, está accesible y montada la unidad. [beer]

Me alegro de que lo hayas solucionado. La verdad que por lo que describías de que no habías escrito encima etc tenía buena pinta, pero muy valiente por tu parte el hacerlo directamente sin red de seguridad :O

Saludos
@Pollonidas Muchas gracias. Sí, es que no hubiera sido justo que se hubieran perdido los datos. ¡Era inocente! XD [+risas] No, en serio, muchas gracias nuevamente. Aunque no soy tan valiente, que me la he jugado porque no tengo nada de vital importancia (ni siquiera nopor [looco] ) dentro.
15 respuestas