<br><br>
<div><span class="gmail_quote">On 1/31/07, <b class="gmail_sendername">Brendan Whelan</b> &lt;<a href="mailto:b_whelan@mistral.co.uk">b_whelan@mistral.co.uk</a>&gt; wrote:</span>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">Vic,<br><br>Yes, I did delete the files as each was over 10GB and I needed to get the<br>system back in action . However, I then trapped the first entries in the
<br>newly created log file and fixed the cause of the excess messaging.</blockquote>
<div>&nbsp;</div>
<div>There&#39;s a booby trap there: if you don&#39;t restart the process that is generating files of doom, they won&#39;t necessarily get deleted until you restart the process generating them (which has to do with the fopen and unlink functions in C, look them up if you&#39;re curious, but it&#39;s not an uncommon problem in dealing with mongo large log files). It&#39;s often good to have a log rotation tool in place, and for server class machines a bit of monitoring of over-filled file systems. (That sort of thing is what Nagios and SNMP and MRTG were designed for!)
</div>
<div>&nbsp;</div>
<div>The daily cron jobs that are part of most Linux distributions are very good for this, and can be easily modified to support new types of log files: I consider log rotation to be a vital part of building the full software package for any daemons I manage, and it can be helpful to get&nbsp; a log analysis utility like LogWatcher configured to look for whackiness like you describe in the log files, so that you get a nightly report of &quot;we saw 10,000,000 entries just like this&quot;.
</div>
<div>&nbsp;</div>
<div>What was it, anyway?</div><br>&nbsp;</div>