Hi Guys,<br><br>Thanks for that info. In answer to a few questions:<br><br>40 GB is a big data set. But that doesn't even include the tiles. Part of the issue I suspect is that we are trying to use this bit of software that was designed for small sites and run reports based on the whole of the country, so we probabily have one of the largest data sets ever seen in this respect.<br>
<br>The data comes from the SAN via a onboard (well built into the machine) fibre connect at 4 GB/s. The dual GB nics sounds like a good idea. However the server is a Sun server of a certain vintage. It may be well worth looking at the link into the DB in terms of speed. Would replicating the data on the local machine be an idea?<br>
<br>What I may do is discuss with these people (They are map geeks, not computer geeks) to see if we can somehow break down the data sets. It does seem rather inefficient. If I get a gold star, I shall buy you all a pint ;)<br>
<br>It is not idea, but the software step up to the daddy of the spatial software is I suspect measured in 6 figures and we aren't talking the last two being pence!<br><br>Defo some things to think about. If we can get the price down a tad, we could buy two of them! ;)<br>
<br><br><br><br><div class="gmail_quote">2009/6/19 Andrew Williams <span dir="ltr"><<a href="mailto:andy@tensixtyone.com">andy@tensixtyone.com</a>></span><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Being a BI myself, hopefully I can put some good input in :)<br>
<div class="im"><br>
On Fri, Jun 19, 2009 at 10:25:42AM +0100, Stuart Burns wrote:<br>
> At work we do a lot of GIS reporting (creating reports based on 3d maps) Now<br>
> I was just speaking to the guy who runs these reports (They get a dozen a<br>
> week to run or so, depending on what is happening) can't cope.<br>
><br>
> Until now they have been running on a core duo laptop with 1 GB of ram. I<br>
> kid you not. Each report takes 48 hours. I suggested they get a super<br>
> machine ;)<br>
><br>
> The data set (40 GB) comes from a SAN.<br>
<br>
</div>Thats a massive dataset for a single report, does it use the whole set<br>
or just a subset?<br>
<div class="im"><br>
> Can anyone suggest a high end rig (Money more or less no object) Put simply<br>
> each 10% quicker it can go, it could save up to two weeks of peddle to metal<br>
> computing per year.<br>
><br>
> I was thinking along the lines of a top of the line AMD (This program can do<br>
> 64 bit computing but doesn't do multiple cpus that efficiently)<br>
><br>
> Around 24 GB RAM<br>
> 2 * 15K SATA 500 GB in a raid stripe config.<br>
> 1 GB NIC as the data comes from a fibre<br>
> bonded FC4 Fibre cards.<br>
> 1 GB Dual head video card with onboard acceleration.<br>
<br>
</div>I suspect that 90% of runtime will be grabbing data from that large set,<br>
I think you should look at dual 1 GB NICs, that is if your network<br>
infrastructure supports it.<br>
<br>
I guess it depends on the app and how it actually handles the data, but<br>
wads of RAM and CPU time will help it along, I think Core Duos will give<br>
you more bang per CPU, if the app has multicpu issues then you want a<br>
processer that can really hammer the calculations on a single core.<br>
<font color="#888888"><br>
<br>
--<br>
Andrew Williams<br>
w: <a href="http://tensixtyone.com/" target="_blank">http://tensixtyone.com/</a><br>
e: <a href="mailto:andy@tensixtyone.com">andy@tensixtyone.com</a><br>
</font><br>-----BEGIN PGP SIGNATURE-----<br>
Version: GnuPG v1.4.9 (GNU/Linux)<br>
<br>
iEYEARECAAYFAko7Yp8ACgkQOYXUY+Bc/8DuZQCeNNO2EjFwANQ8EaUKGi8g05cN<br>
NtQAoNuv3DVkTBNEenURgYgz7s89d5Vr<br>
=J1OD<br>
-----END PGP SIGNATURE-----<br>
<br>_______________________________________________<br>
Chester mailing list<br>
<a href="mailto:Chester@mailman.lug.org.uk">Chester@mailman.lug.org.uk</a><br>
<a href="https://mailman.lug.org.uk/mailman/listinfo/chester" target="_blank">https://mailman.lug.org.uk/mailman/listinfo/chester</a><br>
<br></blockquote></div><br>