<html><head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />

</head><body dir="auto">Wish I had known before, as I would have bought 3 off you. But got mine now.<br><br><div class="gmail_quote">On 23 September 2017 07:58:17 BST, andrew glass <<a href="http://andrew.glass">andrew.glass</a>@outlook.com> wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">


Just a quick heads up, if anyone needs any 1TB 3.5 inch drives I have  a few of them (Toshiba) that I took out of a 16 bay disk array that I decommissioned. Nothing wrong with them just old now. I’m still using some without any issues. Not sure how much they
 would be worth on eBay. Open to offers if anyone is interested. Darren I’ll bring that ddr3 ram to the meeting on Thursday as well.
<div><br />
</div>
<div>Cheers</div>
<div><br />
</div>
<div>Andy<br />
<br />
<div id="AppleMailSignature">Sent from my iPhone</div>
<div><br />
On 22 Sep 2017, at 12:27, Scott Hodgson via Wylug-discuss <<a href="mailto:wylug-discuss@wylug.org.uk">wylug-discuss@wylug.org.uk</a>> wrote:<br />
<br />
</div>
<blockquote type="cite">
<div>Hi John<br />
<br />
Thanks for the info. Yes I think a separate OS disk would be best. BTRFS is quite a complex beast when you use it for more than a basic setup. I have been trying lxd with dockers in them and took me ages to figure out that an unprivileged container was the
 issue with docker getting permissions.<br />
<br />
I ended up getting 2 used server disks on eBay Seagate es sata3, so will see how they workout for me. SMART says they both have over 2 years left in them.... We will see.<br />
<br />
Where did you get the ssd's from, any feedback of a good brand to look out for?<br />
<br />
Thanks<br />
<br />
Scott<br />
<br />
PS I found irc #btrfs handy for problems, specifically someone irc nickname darkling - really knowledge on it.<br />
<br />
<div class="gmail_quote">On 21 September 2017 15:52:09 BST, John Leach via Wylug-discuss <<a href="mailto:wylug-discuss@wylug.org.uk">wylug-discuss@wylug.org.uk</a>> wrote:
<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<pre class="k9mail">On Tue, 2017-09-19 at 16:23 +0000, Scott Hodgson via Wylug-discuss<br />wrote:<br /><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #729fcf; padding-left: 1ex;"> Hi<br /> <br /> Wanting to know what peoples thoughts are on setting up the<br /> filesystem on a home server.<br /> Got a 2 x 1tb hard drives setup for raid1. <br /> I want to use Linux containers for some websites so tried BTRFS. I<br /> used sda2 for uefi sda2 as BTRFS for /. Sda2 was then put in raid<br /> with BTRFS and sub volumes added.<br /> To test, I unplugged one of the drives but upon a reboot it went<br /> straight to initramfs shell. I sorted that by adding degraded to<br /> fstab and grub, however even though the partitions have the same<br /> uuid, it doesn't boot for one of the drives which makes me fear I<br /> could lose the information.<br /> Now I want the function of Btrfs but a bit more easy to use FS. My<br /> options are have a root partition and a /var partition and then make<br /> them BTRFS or other suggestions of a FS. Though do I use mdadm raid<br /> or btrfs raid or zfs raid? What are my options? Anyone have a<br /> solution? All opinions welcome.<br /> <br /> <br /></blockquote><br />I've been running a home server using btrfs raid1 for several years now<br />without any problems.<br /><br />I run it under Debian, but I avoided the kinds of boot problems you<br />mentioned by actually booting from a small cheap 32GB SSD, which holds<br />the OS. Which means, given a problem with btrfs, I can always boot and<br />sort it out.<br /><br />Obviously the SSD could fail, but it doesn't handle very many<br />reads/writes and doesn't hold any important data so is easy to replace<br />and reinstall given a problem (I backup the configs to the btrfs :)<br /><br />A bit of a cop-out I know, but still, it's worked nicely for a long<br />time.<br /><br />For your case, it's worth noting that, to be able to boot from both<br />disks directly (i.e: if one fails) they need the right boot sector<br />stuff and grub installation on both disks. I had the same problem with<br />the standard md raid1 setup. I never found a very satisfactory solution<br />for this - it was always a very complicated manual process to ensure<br />both disks were setup for boot. And it (usually) needs redoing any time<br />you upgrade grub.<br /><br /><br />The most annoying thing about this is, neither of my disks have<br />actually had a single problem. Not a single bit flipped. I run a btrfs<br />scrub every week and never had even one checksum problem or bad read.<br />That's with almost 4TB of data, millions of files, constantly churning.<br /><br />I think I won the hard disk lottery. They'll go eventually and then<br />I'll be thankful for btrfs :)<br /><br />John.<br /><br /><br /><br /><br /></pre>
</blockquote>
</div>
<br />
-- <br />
Sent from my Android device with K-9 Mail. Please excuse my brevity.</div>
</blockquote>
<blockquote type="cite">
<div><span>-- </span><br />
<span>Wylug-discuss mailing list</span><br />
<span><a href="mailto:Wylug-discuss@wylug.org.uk">Wylug-discuss@wylug.org.uk</a></span><br />
<span><a href="https://mailman.lug.org.uk/mailman/listinfo/wylug-discuss">https://mailman.lug.org.uk/mailman/listinfo/wylug-discuss</a></span></div>
</blockquote>
</div>

</blockquote></div><br>
-- <br>
Sent from my Android device with K-9 Mail. Please excuse my brevity.</body></html>