==== Access to Cluster ==== === Voraussetzungen === Vorraussetzung zum Zugang ist ein [[https://www.tu.berlin/campusmanagement/angebot/tub-account/|TUB-Konto]], welches allen Mitgliedern der Hochschule bei Beschäftigungsbeginn über das Provisionierungsverfahren ausgestellt wird. \\ Für den Clusterzugang ist je Einrichtung (Fachgebiet) von den entsprechenden Rolleninhabern [[https://www.tu.berlin/campusmanagement/it-support/teamverwaltung-neues-team-erstellen|ein Team anzulegen]], in dem alle Berechtigungen gepflegt werden. Für das Team muss die [[https://www.tu.berlin/campusmanagement/it-support/teamverwaltung-gruppenfunktion-eines-teams-aktivieren|Gruppenfunktion aktiviert werden]]. Nach der Rückmeldung des Teamnamens an [[mailto:it-support@tu-berlin.de]] mit dem Betreff "HPC:Teamzuordnung" werden die im Team enthaltenen Personen in die SLURM-Datenbank eingetragen. Das Eintragen wird durch automatisierte Skripte durchgeführt und kann daher bis zu einer Stunde in Anspruch nehmen. === Login === Der Login zum Cluster erfolgt mittels SSH über die beiden Frontends (frontend-01 und frontend-02). Dazu wird die virtuelle Addresse gateway.hpc.tu-berlin.de verwendet. Diese Addresse ist aus den Subnetzen der TUB erreichbar. Als Benutzername wird der TUB-Account verwendet. === Windows Workstations === Für den Zugang unter Windows wird ein Zusatzprogramm benötigt. Es können zum Beispiel [[https://www.putty.org/|Putty]] oder [[https://mobaxterm.mobatek.net/download.html|MoabTerm]] verwendet werden. === Linux Workstations === Innerhalb der TUB-Netze ist der Login wie folgt möglich: \\ ssh @gateway.hpc.tu-berlin.de Außerhalb der TUB-Netze ist der Login wie folgt möglich: \\ Entweder wird die Verbindung über einen VPN-Tunnel hergestellt [[https://vpn.tu-berlin.de|Cisco AnyConnect]] oder es wird der SSH-Jumphost verwendet: ssh @sshgate.tu-berlin.de @sshgate.tu-berlin.de's password: -bash-4.2$ ssh gateway.hpc.tu-berlin.de @gateway.hpc.tu-berlin.de's password: -bash-4.2$ Zusammengefasst für den Login und die Datenübertragung von Außerhalb der TUB-Netze: $ ssh -J @sshgate.tu-berlin.de @gateway.hpc.tu-berlin.de $ scp -o 'ProxyJump @sshgate.tu-berlin.de' @gateway.hpc.tu-berlin.de: \\ === Zugriff auf den Cluster-Speicherplatz === Der Zugriff auf die eigenen Dateien welche auf dem Cluster-Speicherplatz (beegfs) liegen ist mit ''scp'' oder ''rsync'' möglich. Damit ist es möglich die Dateien z.B. direkt auf dem eigenen Rechner, oder von dort zum Cluster, zu kopieren. Für den direkten Zugriff, also ohne eine Kopie anfertigen zu müssen, lässt sich [[..:fs:sshfs]] verwenden. Unter Windows kann ein SFTP Client genutzt werden um Dateien zu übertragen. [[hpc:tutorials:fs:windows_file_transfer|Hier]] eine kurze Erklärung.