<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <p>I forgot to add that power capacity per rack might have something
      to do with it, too. I don't remember the number of PDUs in those
      racks, or the power input to each one (1-phase 60-amp, etc.) <br>
    </p>
    <div class="moz-cite-prefix">On 10/10/19 1:09 PM, Prentice Bisbal
      wrote:<br>
    </div>
    <blockquote type="cite"
      cite="mid:85a6fc7a-918f-7329-1b36-0bdd76e042a3@pppl.gov">
      <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
      <p>It's 4 racks of 10, and one rack of 6. For a total of 5 racks,
        not counting the storage system. </p>
      <p>I believe  this is because of power/cooling limitations of the
        air-cooled systems. We have water-cooled rear-door heat
        exchangers, but they're only good up to about 35 KW/rack. Since
        we have 4 GPUs per server these things are consuming more power
        and putting out more heat than your average 1U pizza-box or
        blade server. Bill can answer more authoritatively, since he was
        involved in those discussions. <br>
      </p>
      <p>--<br>
        Prentice <br>
      </p>
      <div class="moz-cite-prefix">On 10/10/19 12:57 PM, Scott Atchley
        wrote:<br>
      </div>
      <blockquote type="cite"
cite="mid:CAL8g0jL1nd0QRH4_xWqMG6OAxozTSkBaiqUrSqdOLOugedS2xA@mail.gmail.com">
        <meta http-equiv="content-type" content="text/html;
          charset=UTF-8">
        <div dir="ltr">That is better than 80% peak, nice.
          <div><br>
          </div>
          <div>Is it three racks of 15 nodes? Or two racks of 18 and 9
            in the third rack?</div>
          <div><br>
          </div>
          <div>You went with a single-port HCA per socket and not the
            shared, dual-port HCA in the shared PCIe slot?</div>
        </div>
        <br>
        <div class="gmail_quote">
          <div dir="ltr" class="gmail_attr">On Thu, Oct 10, 2019 at 8:48
            AM Bill Wichser <<a href="mailto:bill@princeton.edu"
              moz-do-not-send="true">bill@princeton.edu</a>> wrote:<br>
          </div>
          <blockquote class="gmail_quote" style="margin:0px 0px 0px
0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex">Thanks
            for the kind words.  Yes, we installed more like a
            mini-Sierra <br>
            machine which is air cooled.  There are 46 nodes of the IBM
            AC922, two <br>
            socket, 4 V100 where each socket uses the SMT threading x4. 
            So two 16 <br>
            core chips, 32/node, 128 threads per node.  The GPUs all use
            NVLink.<br>
            <br>
            There are two EDR connections per host, each tied to a CPU,
            1:1 per rack <br>
            of 12 and 2:1 between racks.  We have a 2P scratch
            filesystem running <br>
            GPFS.  Each node also has a 3T NVMe card as well for local
            scratch.<br>
            <br>
            And we're running Slurm as our scheduler.<br>
            <br>
            We'll see if it makes the top500 in November.  It fits there
            today but <br>
            who knows what else got on there since June.  With the help
            of nVidia we <br>
            managed to get 1.09PF across 45 nodes.<br>
            <br>
            Bill<br>
            <br>
            On 10/10/19 7:45 AM, Michael Di Domenico wrote:<br>
            > for those that may not have seen<br>
            > <br>
            > <a
href="https://insidehpc.com/2019/10/traverse-supercomputer-to-accelerate-fusion-research-at-princeton/"
              rel="noreferrer" target="_blank" moz-do-not-send="true">https://insidehpc.com/2019/10/traverse-supercomputer-to-accelerate-fusion-research-at-princeton/</a><br>
            > <br>
            > Bill Wischer and Prentice Bisbal are frequent
            contributors to the<br>
            > list, Congrats on the acquisition.  Its nice to see
            more HPC expansion<br>
            > in our otherwise barren hometown... :)<br>
            > <br>
            > Maybe one of them will pass along some detail on the
            machine...<br>
            > _______________________________________________<br>
            > Beowulf mailing list, <a
              href="mailto:Beowulf@beowulf.org" target="_blank"
              moz-do-not-send="true">Beowulf@beowulf.org</a> sponsored
            by Penguin Computing<br>
            > To change your subscription (digest mode or
            unsubscribe) visit <a
              href="https://beowulf.org/cgi-bin/mailman/listinfo/beowulf"
              rel="noreferrer" target="_blank" moz-do-not-send="true">https://beowulf.org/cgi-bin/mailman/listinfo/beowulf</a><br>
            > <br>
            _______________________________________________<br>
            Beowulf mailing list, <a href="mailto:Beowulf@beowulf.org"
              target="_blank" moz-do-not-send="true">Beowulf@beowulf.org</a>
            sponsored by Penguin Computing<br>
            To change your subscription (digest mode or unsubscribe)
            visit <a
              href="https://beowulf.org/cgi-bin/mailman/listinfo/beowulf"
              rel="noreferrer" target="_blank" moz-do-not-send="true">https://beowulf.org/cgi-bin/mailman/listinfo/beowulf</a><br>
          </blockquote>
        </div>
        <br>
        <fieldset class="mimeAttachmentHeader"></fieldset>
        <pre class="moz-quote-pre" wrap="">_______________________________________________
Beowulf mailing list, <a class="moz-txt-link-abbreviated" href="mailto:Beowulf@beowulf.org" moz-do-not-send="true">Beowulf@beowulf.org</a> sponsored by Penguin Computing
To change your subscription (digest mode or unsubscribe) visit <a class="moz-txt-link-freetext" href="https://beowulf.org/cgi-bin/mailman/listinfo/beowulf" moz-do-not-send="true">https://beowulf.org/cgi-bin/mailman/listinfo/beowulf</a>
</pre>
      </blockquote>
    </blockquote>
  </body>
</html>