普拉成员 ZFS 开始覆盖扇区,包括表分区和标记 L0 L1. 数据标签I. L2 L3 没有损坏。 如何治愈?
有两个相同的磁盘 2 TB在镜子池中 ZFS. 不幸的是,当用错误重写光盘的开始时,我们正在尝试通过RAID控制器连接它们 HP Smartarray P400 作为单独的逻辑卷 RAID0, 那里记录自己的元数据。
表部分 (如果它是创造的 zpool create - 见下文) 和标签 L0, L1 失去。 标签和数据 L1, L2 没有损坏,可以以十六进制格式看到。
最初 zpool 例如,通过简单地将未处理的设备添加到镜像池中创建,例如: zpool create tank mirror / dev / sda / dev / sdb.
有没有办法治愈?
表部分 (如果它是创造的 zpool create - 见下文) 和标签 L0, L1 失去。 标签和数据 L1, L2 没有损坏,可以以十六进制格式看到。
最初 zpool 例如,通过简单地将未处理的设备添加到镜像池中创建,例如: zpool create tank mirror / dev / sda / dev / sdb.
有没有办法治愈?
没有找到相关结果
已邀请:
2 个回复
詹大官人
赞同来自:
旧版本:内核 3.13.0-39-generic, SPL: v0.6.3-1 ~ 可靠的, ZFS: v0.6.3-3 ~ 可靠的
新:内核 3.13.0-43-generic, SPL: v0.6.3-3 ~ trusty, ZFS: v0.6.3-5 ~ trusty
此外,部分 zfs 从街区开始在单独的部分中创建 2048. 因此,RAID控制器根本不会影响标签 L0, L1, 并只需重置分区表。
我唯一对进口的东西 - 恢复的分区表 (zpool import 仍然显示池 FAULTY) 并创建了一个目录 / dev / disk / myzfs 并与参与者的分区进行象征性的链接 zpool 相似地 / dev / disk / by-id 有 (试图 "zpool import -d / dev / disk / by-id" 显示池作为 FAULTY).
«zpool import -d / dev / disk / myzfs» 显示我的池 ONLINE, 和 «zpool import -d / dev / disk / myzfs nas» 成功地。
不幸的是,我无法再现细胞核和核的组合 SPL-ZFS 和旧服务器上的模块 - 我没有找到如何获得旧包装 ppa: zfs-native / stable. 所以,我不能说这些是否是模块版本或其他东西的变化。
喜特乐
赞同来自:
也许有某种魔法 ZDB, 这可以帮助但创建逻辑磁盘 HP RAID 0 - 非常有周到的行动。 这将是一个明确的警告,磁盘上包含的数据将因元数据而丢失 Smart Array.
一般来说,使用几个逻辑磁盘 RAID 0 为了 ZFS - 硬件RAID控制器的坏主意。 但这是一个严重的错误。
编辑:
我建议设置这个问题
[/url]
或渠道 IRC.