Voraussetzungen

Vorraussetzung zum Zugang ist ein TUB-Konto, welches allen Mitgliedern der Hochschule bei Beschäftigungsbeginn über das Provisionierungsverfahren ausgestellt wird.

Für den Clusterzugang ist je Einrichtung (Fachgebiet) von den entsprechenden Rolleninhabern ein Team anzulegen, in dem alle Berechtigungen gepflegt werden. Für das Team muss die Gruppenfunktion aktiviert werden.

Nach der Rückmeldung des Teamnamens an mailto:it-support@tu-berlin.de mit dem Betreff „HPC:Teamzuordnung“ werden die im Team enthaltenen Personen in die SLURM-Datenbank eingetragen. Das Eintragen wird durch automatisierte Skripte durchgeführt und kann daher bis zu einer Stunde in Anspruch nehmen.

Login

Der Login zum Cluster erfolgt mittels SSH über die beiden Frontends (frontend-01 und frontend-02). Dazu wird die virtuelle Addresse gateway.hpc.tu-berlin.de verwendet. Diese Addresse ist aus den Subnetzen der TUB erreichbar. Als Benutzername wird der TUB-Account verwendet.

Windows Workstations

Für den Zugang unter Windows wird ein Zusatzprogramm benötigt. Es können zum Beispiel Putty oder MoabTerm verwendet werden.

Linux Workstations

Innerhalb der TUB-Netze ist der Login wie folgt möglich:

ssh <TUB-Account>@gateway.hpc.tu-berlin.de

Außerhalb der TUB-Netze ist der Login wie folgt möglich:

Entweder wird die Verbindung über einen VPN-Tunnel hergestellt Cisco AnyConnect oder es wird der SSH-Jumphost verwendet:

ssh <TUB-Account>@sshgate.tu-berlin.de 
<TUB-Account>@sshgate.tu-berlin.de's password:

-bash-4.2$ ssh gateway.hpc.tu-berlin.de
<TUB-Account>@gateway.hpc.tu-berlin.de's password:

-bash-4.2$

Zusammengefasst für den Login und die Datenübertragung von Außerhalb der TUB-Netze:

$ ssh -J <TUB-Account>@sshgate.tu-berlin.de <tubIT-Login>@gateway.hpc.tu-berlin.de
$ scp -o 'ProxyJump <TUB-Account>@sshgate.tu-berlin.de' <lokale Dateien> <TUB-Account>@gateway.hpc.tu-berlin.de:<remote Pfad>


Zugriff auf den Cluster-Speicherplatz

Der Zugriff auf die eigenen Dateien welche auf dem Cluster-Speicherplatz (beegfs) liegen ist mit scp oder rsync möglich. Damit ist es möglich die Dateien z.B. direkt auf dem eigenen Rechner, oder von dort zum Cluster, zu kopieren. Für den direkten Zugriff, also ohne eine Kopie anfertigen zu müssen, lässt sich sshfs verwenden.

Unter Windows kann ein SFTP Client genutzt werden um Dateien zu übertragen. Hier eine kurze Erklärung.