<div dir="ltr"><div dir="ltr"><div>Gerald that is an excellent history.</div><div>One small thing though: "Of course the ML came along"</div><div>What came first - the chicken or the egg? Perhaps the Nvidia ecosystem made the ML revolution possible.</div><div>You could run ML models on a cheap workstation or a laptop with an Nvidia GPU.</div><div>Indeed I am sitting next to my Nvidia Jetson Nano - 90 dollars for a GPU which can do deep learning.</div><div>Prior to CUDA etc. you could of course do machine learning, but it was being done in universities.</div><div>I stand to be corrected.</div><div><br></div><div><br></div><div><br></div><div><br></div></div></div><br><div class="gmail_quote"><div class="gmail_attr" dir="ltr">On Thu, 9 May 2019 at 17:40, Gerald Henriksen <<a href="mailto:ghenriks@gmail.com">ghenriks@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;padding-left:1ex;border-left-color:rgb(204,204,204);border-left-width:1px;border-left-style:solid">On Wed, 8 May 2019 14:13:51 -0400, you wrote:<br>
<br>
>On Wed, May 8, 2019 at 1:47 PM Jörg Saßmannshausen <<br>
><a href="mailto:sassy-work@sassy.formativ.net" target="_blank">sassy-work@sassy.formativ.net</a>> wrote:<br>
>><br>
>Once upon a time portability, interoperabiilty, standardization, were<br>
>considered good software and hardware attributes.<br>
>Whatever happened to them?<br>
<br>
I suspect in a lot of cases they were more ideals and goals than<br>
actual things.<br>
<br>
Just look at the struggles the various BSDs have in getting a lot of<br>
software running given the inherent Linuxisms that seem to happen.<br>
<br>
In the case of what is relevant to this discussion, CUDA, Nvidia saw<br>
an opportunity (and perhaps also reacted to the threat of not having<br>
their own CPU to counter the integrated GPU market) and invested<br>
heavily into making their GPUs more than simply a 3D graphics device.<br>
<br>
As Nvidia built up the libraries and other software to make life<br>
easier for programmers to get the most out of Nvidia hardware AMD and<br>
Intel ignored the threat until it was too late, and partial attempts<br>
at open standards struggled.<br>
<br>
And programmers, given struggling with OpenCL or other options vs<br>
going with CUDA with its tools and libraries, went for what gave them<br>
the best performance and easiest implementation (aka a win/win).<br>
<br>
Of course then ML came along and suddenly AMD and Intel couldn't<br>
ignore the market anymore, but they are both struggling from a distant<br>
2nd place to try and replicate the CUDA ecosystem...<br>
_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="https://beowulf.org/cgi-bin/mailman/listinfo/beowulf" target="_blank" rel="noreferrer">https://beowulf.org/cgi-bin/mailman/listinfo/beowulf</a><br>
</blockquote></div>