<div dir="auto">AVX-512 is SIMD and in that respect compiled Intel routines will run almost automatically on Intel processors.<div dir="auto">It's not like I was answering the question. I realize or under realize the implementation problems. You need to do a side by side comparison of the die.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Jun 21, 2021, 7:47 AM Andrew M.A. Cater <<a href="mailto:amacater@einval.com">amacater@einval.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On Mon, Jun 21, 2021 at 09:46:30AM -0400, Joe Landman wrote:<br>
> On 6/21/21 9:20 AM, Jonathan Engwall wrote:<br>
> > I have followed this thinking "square peg, round hole."<br>
> > You have got it again, Joe. Compilers are your problem.<br>
> <br>
> <br>
> Erp ... did I mess up again?<br>
> <br>
> Here's where awesome compiler support would help.  FWIW, gcc isn't that<br>
> great a compiler.  Its not performance minded for HPC. Its a reasonable<br>
> general purpose standards compliant (for some subset of standards)<br>
> compilation system.  LLVM is IMO a better compiler system, and its<br>
> clang/flang are developing nicely, albeit still not really HPC focused. <br>
> Then you have variants built on that.  Like the Cray compiler, Nvidia<br>
> compiler and AMD compiler. These are HPC focused, and actually do quite well<br>
> with some codes (though the AMD version lags the Cray and Nvidia compilers).<br>
> You've got the Intel compiler, which would be a good general compiler if it<br>
> wasn't more of a marketing vehicle for Intel processors and their features<br>
> (hey you got an AMD chip?  you will take the slowest code path even if you<br>
> support the features needed for the high performance code path).<br>
> <br>
> Maybe, someday, we'll get a great HPC compiler for C/Fortran.<br>
> <br>
The problem is that, maybe, the HPC market is still not _quite_ big enough<br>
to merit a dedicated set of compilers and is diverse enough in its problem <br>
sets that we still need a dozen or more specialist use cases to work well.<br>
<br>
You would think there would be a cross-over point where massively parallel<br>
scalable cloud infrastructure wold intersect with HPC but that doesn't<br>
seem to be happening. Parallelisation is the great bugbear anyway.<br>
<br>
Most of the experts I know on all of this are the regulars on this list:<br>
paging Greg Lindahl ... <br>
<br>
All the best,<br>
<br>
Andy Cater<br>
<br>
> <br>
> -- <br>
> Joe Landman<br>
> e: <a href="mailto:joe.landman@gmail.com" target="_blank" rel="noreferrer">joe.landman@gmail.com</a><br>
> t: @hpcjoe<br>
> w: <a href="https://scalability.org" rel="noreferrer noreferrer" target="_blank">https://scalability.org</a><br>
> g: <a href="https://github.com/joelandman" rel="noreferrer noreferrer" target="_blank">https://github.com/joelandman</a><br>
> l: <a href="https://www.linkedin.com/in/joelandman" rel="noreferrer noreferrer" target="_blank">https://www.linkedin.com/in/joelandman</a><br>
> <br>
<br>
> _______________________________________________<br>
> Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank" rel="noreferrer">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
> To change your subscription (digest mode or unsubscribe) visit <a href="https://beowulf.org/cgi-bin/mailman/listinfo/beowulf" rel="noreferrer noreferrer" target="_blank">https://beowulf.org/cgi-bin/mailman/listinfo/beowulf</a><br>
<br>
_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank" rel="noreferrer">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="https://beowulf.org/cgi-bin/mailman/listinfo/beowulf" rel="noreferrer noreferrer" target="_blank">https://beowulf.org/cgi-bin/mailman/listinfo/beowulf</a><br>
</blockquote></div>