<div dir="auto">Eadline's Law : Cache is only good the second time.</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, 17 Sep 2021, 21:25 Douglas Eadline, <<a href="mailto:deadline@eadline.org">deadline@eadline.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">--snip--<br>
><br>
> Where I disagree with you is (3). Whether or not cache size is important<br>
> depends on the size of the job. If your iterating through data-parallel<br>
> loops over a large dataset that exceeds cache size, the opportunity to<br>
> reread cached data is probably limited or nonexistent. As we often say<br>
> here, "it depends". I'm sore someone with better low-level hardware<br>
> knowledge will pipe in and tell me why I'm wrong (Cunningham's Law).<br>
><br>
<br>
Of course it all depends. However, as core counts go up, a<br>
fixed amount of cache must get shared. Since the high core counts<br>
are putting pressure on main memory BW, cache gets more<br>
important. This is why AMD is doing V-cache for new processors.<br>
Core counts have outstripped memory BW, their solution<br>
seems to be big caches. And, cache is only good the second time :-)<br>
<br>
<br>
-- big snip--<br>
<br>
-- <br>
Doug<br>
<br>
_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank" rel="noreferrer">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="https://beowulf.org/cgi-bin/mailman/listinfo/beowulf" rel="noreferrer noreferrer" target="_blank">https://beowulf.org/cgi-bin/mailman/listinfo/beowulf</a><br>
</blockquote></div>