<div dir="ltr"><a href="https://www.architecting.it/blog/wekaio-matrix-performance-das/">https://www.architecting.it/blog/wekaio-matrix-performance-das/</a><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, 9 Jun 2020 at 21:52, Ken Smith via GLLUG <<a href="mailto:gllug@mailman.lug.org.uk">gllug@mailman.lug.org.uk</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi All,<br>
<br>
While in lockdown I decided to do some performance testing on KVM. I had <br>
believed that passing a block device through to a guest rather than <br>
using a QCOW2 file would get better performance. I wanted to see whether <br>
that was true and indeed whether using iSCSI storage was any better/worse.<br>
<br>
My test hardware is quite modest and this may adversely have affected <br>
what I measured. The processor is a Intel Core2 6300  @ 1.86GHz with <br>
VT-X support. It shows 3733 Bogomips at startup. There's 8GB RAM and an <br>
Intel 82801HB SATA controller on a Gigabyte MB. The disks are two 3TB <br>
SATA 7200RPM set up with a Raid 1 LVM Ext3 partition as well as other <br>
non-Raid partitions to use to test.<br>
<br>
I used Fedora 32 as the KVM host and my testing was with Centos 8 as a <br>
guest.<br>
<br>
On the host I got 60MB/s write and 143 MB/s read on Raid1/LVM/Ext3. I <br>
wrote/read 10GB files using dd. 10Gb so as to overflow any memory based <br>
caching. Without LVM that changed to 80 MB/s write and 149 MB/s read.<br>
<br>
I tried all kinds of VM setups. Normal QCOW2, pass though of block <br>
devices Raid/LVM and Non-Raid/LVM. I consistently got around 14.5 MB/s <br>
write and 16.5 MB/s read. Similar figures with iSCSI operating from both <br>
file based devices and block devices on the same host. The best I got by <br>
tweaking the performance settings in KVM was a modest improvement to 15 <br>
MB/s write and 17 MB/s read.<br>
<br>
As a reference point I did a test on a configuration that has Centos 6 <br>
on Hyper-V on an HP ML350 with SATA 7200 rpm disks. I appreciate that's <br>
much more capable hardware, although SATA rather than SAS, but I <br>
measured 176 MB/s write and 331 MB/s read. That system is using a file <br>
on the underlying NTFS file system to provide a block device to the <br>
Centos 6 VM.<br>
<br>
I also tried booting the C8 guest via iSCSI on a Centos6 Laptop, which <br>
worked fine on a 1G network. I measured 16.8 MB/s write and 23.1 MB/s <br>
read that way.<br>
<br>
I noticed an increase in processor load while running my DD tests, <br>
although I didn't take any actual measurements.<br>
<br>
What to conclude? Is the hardware just not fast enough? Are newer <br>
processors better at abstracting the VM guests with less performance <br>
impact? What am I missing??<br>
<br>
Any thoughts from virtualisation experts here most welcome.<br>
<br>
Thanks<br>
<br>
Ken<br>
<br>
<br>
<br>
-- <br>
This message has been scanned for viruses and<br>
dangerous content by MailScanner, and is<br>
believed to be clean.<br>
<br>
<br>
-- <br>
GLLUG mailing list<br>
<a href="mailto:GLLUG@mailman.lug.org.uk" target="_blank">GLLUG@mailman.lug.org.uk</a><br>
<a href="https://mailman.lug.org.uk/mailman/listinfo/gllug" rel="noreferrer" target="_blank">https://mailman.lug.org.uk/mailman/listinfo/gllug</a></blockquote></div>