Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen Revision Vorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
hpc:tutorials:scheduling:access [2024/04/23 13:15] – gelöscht - Externe Bearbeitung (Unbekanntes Datum) 127.0.0.1hpc:tutorials:scheduling:access [2024/04/23 14:53] (aktuell) – [Zugriff auf den Cluster-Speicherplatz] jan.e
Zeile 1: Zeile 1:
 +==== Access to Cluster ====
  
 +=== Voraussetzungen ===
 +Vorraussetzung zum Zugang ist ein [[https://www.tu.berlin/campusmanagement/angebot/tub-account/|TUB-Konto]], welches allen Mitgliedern der Hochschule bei Beschäftigungsbeginn über das Provisionierungsverfahren ausgestellt wird. \\
 +
 +Für den Clusterzugang ist je Einrichtung (Fachgebiet) von den entsprechenden Rolleninhabern [[https://www.tu.berlin/campusmanagement/it-support/teamverwaltung-neues-team-erstellen|ein Team anzulegen]], in dem alle Berechtigungen gepflegt werden. Für das Team muss die [[https://www.tu.berlin/campusmanagement/it-support/teamverwaltung-gruppenfunktion-eines-teams-aktivieren|Gruppenfunktion aktiviert werden]]. 
 +
 +Nach der Rückmeldung des Teamnamens an [[mailto:it-support@tu-berlin.de]] mit dem Betreff "HPC:Teamzuordnung" werden die im Team enthaltenen Personen in die SLURM-Datenbank eingetragen. Das Eintragen wird durch automatisierte Skripte durchgeführt und kann daher bis zu einer Stunde in Anspruch nehmen.
 +
 +=== Login ===
 +Der Login zum Cluster erfolgt mittels SSH über die beiden Frontends (frontend-01 und frontend-02). Dazu wird die virtuelle Addresse gateway.hpc.tu-berlin.de verwendet. Diese Addresse ist aus den Subnetzen der TUB erreichbar. Als Benutzername wird der TUB-Account verwendet.
 +
 +=== Windows Workstations ===
 +Für den Zugang unter Windows wird ein Zusatzprogramm benötigt. Es können zum Beispiel [[https://www.putty.org/|Putty]] oder [[https://mobaxterm.mobatek.net/download.html|MoabTerm]] verwendet werden.
 +
 +=== Linux Workstations ===
 +Innerhalb der TUB-Netze ist der Login wie folgt möglich: \\
 +<code>
 +ssh <TUB-Account>@gateway.hpc.tu-berlin.de
 +</code>
 +
 +Außerhalb der TUB-Netze ist der Login wie folgt möglich: \\
 +
 +Entweder wird die Verbindung über einen VPN-Tunnel hergestellt [[https://vpn.tu-berlin.de|Cisco AnyConnect]] oder es wird der SSH-Jumphost verwendet:
 +
 +<code>
 +ssh <TUB-Account>@sshgate.tu-berlin.de 
 +<TUB-Account>@sshgate.tu-berlin.de's password:
 +
 +-bash-4.2$ ssh gateway.hpc.tu-berlin.de
 +<TUB-Account>@gateway.hpc.tu-berlin.de's password:
 +
 +-bash-4.2$
 +</code>
 +
 +Zusammengefasst für den Login und die Datenübertragung von Außerhalb der TUB-Netze:
 +<code>
 +$ ssh -J <TUB-Account>@sshgate.tu-berlin.de <tubIT-Login>@gateway.hpc.tu-berlin.de
 +$ scp -o 'ProxyJump <TUB-Account>@sshgate.tu-berlin.de' <lokale Dateien> <TUB-Account>@gateway.hpc.tu-berlin.de:<remote Pfad>
 +</code> \\
 +=== Zugriff auf den Cluster-Speicherplatz ===
 +
 +Der Zugriff auf die eigenen Dateien welche auf dem Cluster-Speicherplatz (beegfs) liegen ist mit ''scp'' oder ''rsync'' möglich. Damit ist es möglich die Dateien z.B. direkt auf dem eigenen Rechner, oder von dort zum Cluster, zu kopieren.
 +Für den direkten Zugriff, also ohne eine Kopie anfertigen zu müssen, lässt sich [[..:fs:sshfs]] verwenden. 
 +
 +Unter Windows kann ein SFTP Client genutzt werden um Dateien zu übertragen. [[hpc:tutorials:fs:windows_file_transfer|Hier]] eine kurze Erklärung.