On Thu, Mar 13, 2008 at 11:55 AM, Dave Plonka &lt;<a href="mailto:plonka@doit.wisc.edu">plonka@doit.wisc.edu</a>&gt; wrote:<br>&gt; BTW, you said 2.6.x kernel... the &quot;x&quot; is important. &nbsp;My recollection<br>
&gt; is that the kernel implementation of doing posix_fadvise for RANDOM<br>
&gt; I/O imropoved at 2.6.7 and 2.6.9.<br>
<br>
My server&#39;s running Redhat&#39;s bastardized 2.6.9 kernel &quot;2.6.9-42.0.10.ELsmp&quot;<br><br>&gt; If you upgrade to rrdtool &gt;= 1.2.25, please let us know what happens.<br>&gt; 
(It&#39;d be great to compare sar data before and after - you can set up<br>&gt; 
the sar data collector (sadc) to store data across that.)<br>
<br>I have just upgraded to 1.2.27, unfortunately before I read this about sar/sadc, hadn&#39;t heard of that before :-(<br><br>So far not really noticing a major difference, the system does feel a bit more responsive but the disk I/O is still pretty high. It&#39;s still not using 100% of the RAM, not swapping at all. Would adding more RAM (i.e. going up to 6 or 8GB) help?<br>
<br>Before the upgrade:<br>Mem:&nbsp;&nbsp; 4041528k total,&nbsp; 3742980k used,&nbsp;&nbsp; 298548k free,&nbsp;&nbsp; 137608k buffers<br>Swap:&nbsp; 2040244k total,&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 160k used,&nbsp; 2040084k free,&nbsp; 3055604k cached<br>(iostat stats:)<br>Device:&nbsp;&nbsp;&nbsp; rrqm/s wrqm/s&nbsp;&nbsp; r/s&nbsp;&nbsp; w/s&nbsp; rsec/s&nbsp; wsec/s&nbsp;&nbsp;&nbsp; rkB/s&nbsp;&nbsp;&nbsp; wkB/s avgrq-sz avgqu-sz&nbsp;&nbsp; await&nbsp; svctm&nbsp; %util<br>
sda&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp; 1.98 14.85 369.31&nbsp; 728.71 2954.46&nbsp;&nbsp; 364.36&nbsp; 1477.23&nbsp;&nbsp;&nbsp;&nbsp; 9.59&nbsp;&nbsp; 108.89&nbsp; 234.11&nbsp;&nbsp; 2.58&nbsp; 99.11<br><br>After the upgrade:<br>Mem:&nbsp;&nbsp; 4041528k total,&nbsp; 2516932k used,&nbsp; 1524596k free,&nbsp;&nbsp;&nbsp; 92840k buffers<br>Swap:&nbsp; 2040244k total,&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 160k used,&nbsp; 2040084k free,&nbsp; 1855360k cached<br>
Device:&nbsp;&nbsp;&nbsp; rrqm/s wrqm/s&nbsp;&nbsp; r/s&nbsp;&nbsp; w/s&nbsp; rsec/s&nbsp; wsec/s&nbsp;&nbsp;&nbsp; rkB/s&nbsp;&nbsp;&nbsp; wkB/s avgrq-sz avgqu-sz&nbsp;&nbsp; await&nbsp; svctm&nbsp; %util<br>sda&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00&nbsp;&nbsp; 5.94 10.89 379.21&nbsp;&nbsp; 87.13 3049.50&nbsp;&nbsp;&nbsp; 43.56&nbsp; 1524.75&nbsp;&nbsp;&nbsp;&nbsp; 8.04&nbsp;&nbsp; 108.36&nbsp; 213.76&nbsp;&nbsp; 2.54&nbsp; 99.11<br>
<br>The disk I/O does drop below 100% a bit more often than before, but its still pegged at nearly 100%. Then again, it&#39;s still getting caught up from when I had graph updates disabled while doing the upgrade, but its still &quot;catching up&quot; about as fast as the old version would. <br>
<br><br><br>What I&#39;m using rrdtool for on this server is PNP (<a href="http://www.ederdrom.de/pnp/">http://www.ederdrom.de/pnp/</a>) along with Nagios to make graphs based on the performance data the Nagios checks generate. With my setup Nagios spits out a file every 15 seconds with enough data to update about 1500 RRD files. PNP has a daemon running (NPCD) and when it sees a new file available it launches a Perl script, that loops over that data and does a bunch of rrdtool updates. A fresh script is ran for each file. It does use the RRDs Perl module, you can disable that with a PNP config setting but I&#39;m not noticing a big difference either way so I left it enabled.<br>
<br>I&#39;m not sure how well we&#39;ll be able to take advantage of the caching, since when the same RRD file is updated the next time around, it will be a new script doing the update. What process would be using more memory to save this cache data? Or the OS itself would be doing this caching?<br>
<br>We were thinking of getting 3 x Gigabyte i-ram drives (4GB each, set up in a RAID 0 so 12 GB total) and a separate dedicated server do the rrdtool updates. Still not sure if that will be necessary or not. They are only 10k SCSI disks we&#39;re using currently (little SAS disks), and only RAID 1, so maybe some 15k disks in RAID 0 or RAID 5 would help more than extra RAM?<br>
<br>