<div dir="ltr">Johann-Tobias,<br><br>Thank you for the reply.<br><br>I don't know enough detail about Julia to even be confused (I am learning it now) :-)<br><br>It just seems to me that things have not really changed in the tooling in the HPC space since 20+ years ago. This is why I thought, well, hoped that something new and more interesting would have come along - like Julia. Being able to express better and at a higher level parallelization or distribution tasks (higher than MPI anyway) would be nice. Spark is nice that way in the data science space but it cannot run in the same space/hardware as traditional HPC approaches, sadly.<br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Oct 12, 2020 at 8:15 PM Jo-To Schäg <<a href="mailto:johtobsch@gmail.com">johtobsch@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I have some experience with Julia and can say with certainty that<br>
Julia is not aiming to replace MPI.<br>
Julia is a programming language aiming for a place in HPC and other<br>
development time limited computation heavy areas. Some Julia programs<br>
also uses MPI for internode communication. Such CliMA [1] defines it's<br>
own array type MPIStateArray which presents itself as a shared array<br>
over all machines in the cluster but it handles synchronization ghost<br>
elements so local stencil can use up to date data from their<br>
neighbours machine and all that while hiding behind the interface of<br>
an array data structure.<br>
However Julia also has other means of internode communication, such as<br>
a channel primitive that can send arbitrary data structure. So i see<br>
where to confusion might come from.<br>
Here is an instruction on how to use Julia on MITs Satori Cluster [2]<br>
from that and the surrounding excitement of Julia. I think Julia is<br>
slowly growing more popular in Super Computing space. Although the<br>
number of projects running on large scale cluster can probably be<br>
still counted on one hand.<br>
I am aware of the following projects using Julia at Cluster Scale:<br>
 - Celeste [3]<br>
 - CLiMA<br>
 - DSGE model of the FED [4]<br>
 - model informed drug development [5]<br>
<br>
If someone is interested in learning Julia, a good place to come into<br>
contact with the community is the Julia Slack.<br>
<br>
Sincerely,<br>
Johann-Tobias Schäg<br>
<br>
[1] <a href="https://github.com/CliMA/ClimateMachine.jl" rel="noreferrer" target="_blank">https://github.com/CliMA/ClimateMachine.jl</a><br>
[2] <a href="https://mit-satori.github.io/satori-julia.html#getting-started" rel="noreferrer" target="_blank">https://mit-satori.github.io/satori-julia.html#getting-started</a><br>
[3] <a href="https://www.youtube.com/watch?v=uecdcADM3hY" rel="noreferrer" target="_blank">https://www.youtube.com/watch?v=uecdcADM3hY</a><br>
[4] <a href="https://github.com/FRBNY-DSGE/DSGE.jl" rel="noreferrer" target="_blank">https://github.com/FRBNY-DSGE/DSGE.jl</a><br>
[5] <a href="https://juliacomputing.com/case-studies/pfizer.html" rel="noreferrer" target="_blank">https://juliacomputing.com/case-studies/pfizer.html</a><br>
<br>
<br>
On Mon, 12 Oct 2020 at 21:20, Prentice Bisbal via Beowulf<br>
<<a href="mailto:beowulf@beowulf.org" target="_blank">beowulf@beowulf.org</a>> wrote:<br>
><br>
> I'm not an expert on Big Data at all, but I hear the phrase "Hadoop" less and less these days. Where I work, most data analysts are using R, Python, or Spark in the form of PySpark. For machine learning, most of the researchers I support are using Python tools like TensorFlow or PyTorch.<br>
><br>
> I don't know much about Julia replacing MPI, etc., but I wish I did. I would like to know more about Julia.<br>
><br>
> Prentice<br>
><br>
> On 10/12/20 12:14 PM, Oddo Da wrote:<br>
><br>
> Hello,<br>
><br>
> I used to be in HPC back when we built beowulf clusters by hand ;) and wrote code in C/pthreads, PVM and MPI and back when anyone could walk into fields like bioinformatics, all that was needed was a pulse, some C and Perl and a desire to do ;-). Then I left for the private sector and stumbled into "big data" some years later - I wrote a lot of code in Spark and Scala, worked in infrastructure to support it etc.<br>
><br>
> Then I went back (in 2017) to HPC. I was surprised to find that not much has changed - researchers and grad students still write code in MPI and C/C++ and maybe some Python or R for visualization or localized data analytics. I also noticed that it was not easy to "marry" things like big data with HPC clusters - tools like Spark/Hadoop do not really have the same underlying infrastructure assumptions as do things like MPI/supercomputers. However, I find it wasteful for a university to run separate clusters to support a data science/big data load vs traditional HPC.<br>
><br>
> I then stumbled upon languages like Julia - I like its approach, code is data, visualization is easy, decent ML/DS tooling.<br>
><br>
> How does it fare on a traditional HCP cluster? Are people using it to substitute their MPI loads? On the opposite side, has it caught up to Spark in terms of DS/ML quality of offering? In other words, can it be used as a one fell swoop unifying substitute for both opposing approaches?<br>
><br>
> I realize that many people have already committed to certain tech/paradigms but this is mostly educational debt (if MPI or Spark on the other side is working for me, why go to something different?) - but is there anything substantial stopping new people with no debt starting out in a different approach (offerings like Julia)?<br>
><br>
> I do not have too much experience with Julia (and hence may be barking at the wrong tree) - in that case I am wondering what people are doing to "marry" the loads of traditional HPC with "big data" as practiced by the commercial/industry entities on a single underlying hardware offering. I know there are things like Twister2 but it is unclear to me (from cursory examination) what it actually offers in the context of my questions above.<br>
><br>
> Any input, corrections, schooling me etc. are appreciated.<br>
><br>
> Thank you!<br>
><br>
> _______________________________________________<br>
> Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
> To change your subscription (digest mode or unsubscribe) visit <a href="https://beowulf.org/cgi-bin/mailman/listinfo/beowulf" rel="noreferrer" target="_blank">https://beowulf.org/cgi-bin/mailman/listinfo/beowulf</a><br>
><br>
> --<br>
> Prentice Bisbal<br>
> Lead Software Engineer<br>
> Research Computing<br>
> Princeton Plasma Physics Laboratory<br>
> <a href="http://www.pppl.gov" rel="noreferrer" target="_blank">http://www.pppl.gov</a><br>
><br>
> _______________________________________________<br>
> Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
> To change your subscription (digest mode or unsubscribe) visit <a href="https://beowulf.org/cgi-bin/mailman/listinfo/beowulf" rel="noreferrer" target="_blank">https://beowulf.org/cgi-bin/mailman/listinfo/beowulf</a><br>
_______________________________________________<br>
Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org" target="_blank">Beowulf@beowulf.org</a> sponsored by Penguin Computing<br>
To change your subscription (digest mode or unsubscribe) visit <a href="https://beowulf.org/cgi-bin/mailman/listinfo/beowulf" rel="noreferrer" target="_blank">https://beowulf.org/cgi-bin/mailman/listinfo/beowulf</a><br>
</blockquote></div>