Difference: PALMA (1 vs. 44)

Revision 442021-01-15 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Deleted:
<
<

Übersicht

PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster, der von der Firma Bull geliefert wurde, aus insgesamt 3528 Prozessorkernen. Diese sind wie folgt verteilt:

  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 254 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
  • 4 SMP (shared memory) Knoten mit je 32 Prozessorkernen
  • 2 SMP (shared memory) Knoten mit je 40 Prozessorkernen

Die Ausstattung im Detail:

Compute Nodes:

  • Intel Xeon Nehalem X5550, 2,67 GHz, 2x4 Kerne, 24 GB RAM
  • Intel Xeon Westmere X5650, 2,67 GHz, 2x6 Kerne, 24, bzw. 48 GB RAM

SMP-System:

  • Intel Xeon X7550, 2 GHz, 4x8 Kerne
  • 256 GB Hauptspeicher

  • Intel Xeon E7-E4850, 2 GHz, 4x10 Kerne
  • 512 GB Hauptspeicher

  • Intel Xeon E7-E4850, 2 GHz, 4x10 Kerne
  • 256 GB Hauptspeicher

Filesystem:

  • 3 TB /home Partition
  • 180 TB /scratch Partition

Als schnelles Kommunikationssystem dient QDR Infiniband.

Genaue Liste der Austattung der einzelnen Knoten mit Hauptspeicher

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

  • Der Benutzer muß Mitglied der Gruppe u0clstr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface ZIV.MeinZIV unter dem Punkt „Nutzerkennung und Gruppenmitgliedschaften“, Unterpunkt „Neu beantragen“ zuteilen)
  • Der Benutzer muß Mitglied eines der Projekte sein, die für das System zugelassen sind. In diesem Fall kann sich der Benutzer im Webinterface myJAM registrieren und dort zu den jeweiligen Projekten zugeordnet werden

Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).

Der von außen per ssh erreichbare Loginknoten heißt palma.uni-muenster.de. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc. Von Linuxrechner aus ist es möglich, das Homeverzeichnis von außen permanent einzubinden.

Sollten generell Fragen zum Zugang, bzw der Benutzung von Palma auftreten, einfach eine Mail an hpc@uni-muenster.de schreiben.

Rechnen auf PALMA

Verfügbare Software

Das Webinterface myJAM

Remote Visualization / GPGPU

Tipps und Tricks zur Benutzung von Palma

-- HolgerAngenent - 2010-07-08

 \ No newline at end of file

Revision 432018-05-07 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Changed:
<
<

Overview

>
>

Übersicht

 
Changed:
<
<
PALMA (Parallel Linux-System for Users in Munster) is the central compute cluster of the University of Münster.
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster, der von der Firma Bull geliefert wurde, aus insgesamt 3528 Prozessorkernen. Diese sind wie folgt verteilt:
 
Changed:
<
<
More information here:
>
>
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 254 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
  • 4 SMP (shared memory) Knoten mit je 32 Prozessorkernen
  • 2 SMP (shared memory) Knoten mit je 40 Prozessorkernen
 
Changed:
<
<

High Performance Computing

>
>
Die Ausstattung im Detail:

Compute Nodes:

  • Intel Xeon Nehalem X5550, 2,67 GHz, 2x4 Kerne, 24 GB RAM
  • Intel Xeon Westmere X5650, 2,67 GHz, 2x6 Kerne, 24, bzw. 48 GB RAM

SMP-System:

  • Intel Xeon X7550, 2 GHz, 4x8 Kerne
  • 256 GB Hauptspeicher

  • Intel Xeon E7-E4850, 2 GHz, 4x10 Kerne
  • 512 GB Hauptspeicher

  • Intel Xeon E7-E4850, 2 GHz, 4x10 Kerne
  • 256 GB Hauptspeicher

Filesystem:

  • 3 TB /home Partition
  • 180 TB /scratch Partition

Als schnelles Kommunikationssystem dient QDR Infiniband.

Genaue Liste der Austattung der einzelnen Knoten mit Hauptspeicher

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

  • Der Benutzer muß Mitglied der Gruppe u0clstr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface ZIV.MeinZIV unter dem Punkt „Nutzerkennung und Gruppenmitgliedschaften“, Unterpunkt „Neu beantragen“ zuteilen)
  • Der Benutzer muß Mitglied eines der Projekte sein, die für das System zugelassen sind. In diesem Fall kann sich der Benutzer im Webinterface myJAM registrieren und dort zu den jeweiligen Projekten zugeordnet werden

Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).

Der von außen per ssh erreichbare Loginknoten heißt palma.uni-muenster.de. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc. Von Linuxrechner aus ist es möglich, das Homeverzeichnis von außen permanent einzubinden.

Sollten generell Fragen zum Zugang, bzw der Benutzung von Palma auftreten, einfach eine Mail an hpc@uni-muenster.de schreiben.

 

Rechnen auf PALMA

Revision 422018-05-07 - OliverRubner

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Changed:
<
<

Übersicht

>
>

Overview

 
Changed:
<
<
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster, der von der Firma Bull geliefert wurde, aus insgesamt 3528 Prozessorkernen. Diese sind wie folgt verteilt:
>
>
PALMA (Parallel Linux-System for Users in Munster) is the central compute cluster of the University of Münster.
 
Changed:
<
<
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 254 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
  • 4 SMP (shared memory) Knoten mit je 32 Prozessorkernen
  • 2 SMP (shared memory) Knoten mit je 40 Prozessorkernen
>
>
More information here:
 
Changed:
<
<
Die Ausstattung im Detail:

Compute Nodes:

  • Intel Xeon Nehalem X5550, 2,67 GHz, 2x4 Kerne, 24 GB RAM
  • Intel Xeon Westmere X5650, 2,67 GHz, 2x6 Kerne, 24, bzw. 48 GB RAM

SMP-System:

  • Intel Xeon X7550, 2 GHz, 4x8 Kerne
  • 256 GB Hauptspeicher

  • Intel Xeon E7-E4850, 2 GHz, 4x10 Kerne
  • 512 GB Hauptspeicher

  • Intel Xeon E7-E4850, 2 GHz, 4x10 Kerne
  • 256 GB Hauptspeicher

Filesystem:

  • 3 TB /home Partition
  • 180 TB /scratch Partition

Als schnelles Kommunikationssystem dient QDR Infiniband.

Genaue Liste der Austattung der einzelnen Knoten mit Hauptspeicher

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

  • Der Benutzer muß Mitglied der Gruppe u0clstr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface ZIV.MeinZIV unter dem Punkt „Nutzerkennung und Gruppenmitgliedschaften“, Unterpunkt „Neu beantragen“ zuteilen)
  • Der Benutzer muß Mitglied eines der Projekte sein, die für das System zugelassen sind. In diesem Fall kann sich der Benutzer im Webinterface myJAM registrieren und dort zu den jeweiligen Projekten zugeordnet werden

Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).

Der von außen per ssh erreichbare Loginknoten heißt palma.uni-muenster.de. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc. Von Linuxrechner aus ist es möglich, das Homeverzeichnis von außen permanent einzubinden.

Sollten generell Fragen zum Zugang, bzw der Benutzung von Palma auftreten, einfach eine Mail an hpc@uni-muenster.de schreiben.

>
>

High Performance Computing

 

Rechnen auf PALMA

Revision 412016-03-03 - MartinLeweling

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 39 to 39
  Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:
  • Der Benutzer muß Mitglied der Gruppe u0clstr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface ZIV.MeinZIV unter dem Punkt „Nutzerkennung und Gruppenmitgliedschaften“, Unterpunkt „Neu beantragen“ zuteilen)
Changed:
<
<
  • Der Benutzer muß Mitglied eines der Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im Webinterface myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden
>
>
  • Der Benutzer muß Mitglied eines der Projekte sein, die für das System zugelassen sind. In diesem Fall kann sich der Benutzer im Webinterface myJAM registrieren und dort zu den jeweiligen Projekten zugeordnet werden
  Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).

Revision 402016-01-21 - RainerPerske

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 39 to 38
 

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

Changed:
<
<
  • Der Benutzer muß Mitglied der Gruppe u0clstr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface ZIV.MeinZIV unter dem Punkt "Gruppenverwaltung", Unterpunkt "Anmeldung u0clstr" zuteilen)
>
>
  • Der Benutzer muß Mitglied der Gruppe u0clstr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface ZIV.MeinZIV unter dem Punkt „Nutzerkennung und Gruppenmitgliedschaften“, Unterpunkt „Neu beantragen“ zuteilen)
 
  • Der Benutzer muß Mitglied eines der Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im Webinterface myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden

Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier:

Revision 392015-07-28 - RainerPerske

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 39 to 39
 

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

Changed:
<
<
  • Der Benutzer muß Mitglied der Gruppe u0clstr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface MeinZIV unter dem Punkt "Gruppenverwaltung", Unterpunkt "Anmeldung u0clstr" zuteilen)
>
>
  • Der Benutzer muß Mitglied der Gruppe u0clstr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface ZIV.MeinZIV unter dem Punkt "Gruppenverwaltung", Unterpunkt "Anmeldung u0clstr" zuteilen)
 
  • Der Benutzer muß Mitglied eines der Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im Webinterface myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden

Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier:

Revision 382013-10-01 - RainerPerske

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 39 to 39
 

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

Changed:
<
<
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface MeinZIV unter dem Punkt "Sondersysteme" zuteilen)
>
>
  • Der Benutzer muß Mitglied der Gruppe u0clstr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface MeinZIV unter dem Punkt "Gruppenverwaltung", Unterpunkt "Anmeldung u0clstr" zuteilen)
 
  • Der Benutzer muß Mitglied eines der Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im Webinterface myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden

Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier:

Revision 372013-04-04 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 39 to 39
 

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

Changed:
<
<
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface MeinZIV zuteilen)
>
>
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface MeinZIV unter dem Punkt "Sondersysteme" zuteilen)
 
  • Der Benutzer muß Mitglied eines der Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im Webinterface myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden

Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier:

Revision 362012-12-05 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 58 to 58
 

Remote Visualization / GPGPU

Changed:
<
<

Tipps und Tricks zur Benutzung von Palma

>
>

Tipps und Tricks zur Benutzung von Palma

 

-- HolgerAngenent - 2010-07-08 \ No newline at end of file

Revision 352012-11-26 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 21 to 21
 
  • Intel Xeon X7550, 2 GHz, 4x8 Kerne
  • 256 GB Hauptspeicher
Changed:
<
<
  • Intel Xeon E4850, 2 GHz, 4x10 Kerne
>
>
  • Intel Xeon E7-E4850, 2 GHz, 4x10 Kerne
 
  • 512 GB Hauptspeicher
Changed:
<
<
  • Intel Xeon E4850, 2 GHz, 4x10 Kerne
>
>
  • Intel Xeon E7-E4850, 2 GHz, 4x10 Kerne
 
  • 256 GB Hauptspeicher

Filesystem:

Revision 342012-09-25 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"

Übersicht

Changed:
<
<
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster, der von der Firma Bull geliefert wurde, aus insgesamt 3528 Prozessorkernen. Diese sind wie folgt verteilt:
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster, der von der Firma Bull geliefert wurde, aus insgesamt 3528 Prozessorkernen. Diese sind wie folgt verteilt:
 
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 254 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
Line: 31 to 31
 
  • 3 TB /home Partition
  • 180 TB /scratch Partition
Changed:
<
<
Als schnelles Kommunikationssystem dient Infiniband.
>
>
Als schnelles Kommunikationssystem dient QDR Infiniband.
 

Genaue Liste der Austattung der einzelnen Knoten mit Hauptspeicher

Line: 40 to 40
  Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface MeinZIV zuteilen)
Changed:
<
<
  • Der Benutzer muß Mitglied eines der 29 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im Webinterface myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden
>
>
  • Der Benutzer muß Mitglied eines der Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im Webinterface myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden
  Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).

Revision 332012-01-09 - arturm77

Line: 1 to 1
 
META TOPICPARENT name="HPC"

Revision 322011-08-15 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 45 to 45
 Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).
Changed:
<
<
Der von außen per ssh erreichbare Loginknoten heißt zivcluster.uni-muenster.de. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc.
>
>
Der von außen per ssh erreichbare Loginknoten heißt palma.uni-muenster.de. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc. Von Linuxrechner aus ist es möglich, das Homeverzeichnis von außen permanent einzubinden.
  Sollten generell Fragen zum Zugang, bzw der Benutzung von Palma auftreten, einfach eine Mail an hpc@uni-muenster.de schreiben.

Revision 312011-08-12 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 40 to 40
  Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface MeinZIV zuteilen)
Changed:
<
<
  • Der Benutzer muß Mitglied eines der 24 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im Webinterface myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden
>
>
  • Der Benutzer muß Mitglied eines der 29 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im Webinterface myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden
  Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).

Revision 302011-07-27 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"

Übersicht

Changed:
<
<
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster, der von der Firma Bull geliefert wurde, aus insgesamt 3448 Prozessorkernen. Diese sind wie folgt verteilt:
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster, der von der Firma Bull geliefert wurde, aus insgesamt 3528 Prozessorkernen. Diese sind wie folgt verteilt:
 
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 254 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
  • 4 SMP (shared memory) Knoten mit je 32 Prozessorkernen
Added:
>
>
  • 2 SMP (shared memory) Knoten mit je 40 Prozessorkernen
  Die Ausstattung im Detail:
Line: 18 to 19
  SMP-System:
  • Intel Xeon X7550, 2 GHz, 4x8 Kerne
Changed:
<
<
  • 128 GB Hauptspeicher
>
>
  • 256 GB Hauptspeicher

  • Intel Xeon E4850, 2 GHz, 4x10 Kerne
  • 512 GB Hauptspeicher

  • Intel Xeon E4850, 2 GHz, 4x10 Kerne
  • 256 GB Hauptspeicher
  Filesystem:
  • 3 TB /home Partition

Revision 292011-05-11 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"

Übersicht

Changed:
<
<
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster, der von der Firma Bull geliefert wurde, aus insgesamt 3008 Prozessorkernen. Diese sind wie folgt verteilt:
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster, der von der Firma Bull geliefert wurde, aus insgesamt 3448 Prozessorkernen. Diese sind wie folgt verteilt:
 
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
Changed:
<
<
  • 216 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
>
>
  • 254 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
 
  • 4 SMP (shared memory) Knoten mit je 32 Prozessorkernen

Die Ausstattung im Detail:

Revision 282011-04-04 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 49 to 49
 

Das Webinterface myJAM

Changed:
<
<

Remote Visualization

>
>

Remote Visualization / GPGPU

 

Tipps und Tricks zur Benutzung von Palma

Revision 272011-04-04 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 45 to 45
 

Rechnen auf PALMA

Added:
>
>

Verfügbare Software

 

Das Webinterface myJAM

Remote Visualization

Revision 262010-12-13 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"

Übersicht

Changed:
<
<
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 3008 Prozessorkernen. Diese sind wie folgt verteilt:
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster, der von der Firma Bull geliefert wurde, aus insgesamt 3008 Prozessorkernen. Diese sind wie folgt verteilt:
 
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 216 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
Line: 13 to 13
 Die Ausstattung im Detail:

Compute Nodes:

Changed:
<
<
  • 2,6 GHz, 4 bzw. 6 Kerne
  • 2 bzw. 3 bzw. 4 GB Arbeitsspeicher pro Prozessorkern (je nach Knoten)
>
>
  • Intel Xeon Nehalem X5550, 2,67 GHz, 2x4 Kerne, 24 GB RAM
  • Intel Xeon Westmere X5650, 2,67 GHz, 2x6 Kerne, 24, bzw. 48 GB RAM
  SMP-System:
Changed:
<
<
  • 32 Kerne mit 2 GHz
>
>
  • Intel Xeon X7550, 2 GHz, 4x8 Kerne
 
  • 128 GB Hauptspeicher

Filesystem:

Revision 252010-12-06 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 40 to 40
  Der von außen per ssh erreichbare Loginknoten heißt zivcluster.uni-muenster.de. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc.
Changed:
<
<
Sollten generell Fragen zum Zugang, bzw der Benutzung von Palma auftreten, einfach eine Mail an Holger Angenent (holger.angenent (at) uni-muenster.de) schreiben.
>
>
Sollten generell Fragen zum Zugang, bzw der Benutzung von Palma auftreten, einfach eine Mail an hpc@uni-muenster.de schreiben.
 

Rechnen auf PALMA

Revision 242010-11-25 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 24 to 24
 
  • 3 TB /home Partition
  • 180 TB /scratch Partition
Added:
>
>
Als schnelles Kommunikationssystem dient Infiniband.
 

Genaue Liste der Austattung der einzelnen Knoten mit Hauptspeicher

Deleted:
<
<
Als schnelles Kommunikationssystem dient Infiniband.
 

Zugang zum System

Revision 232010-11-25 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 24 to 24
 
  • 3 TB /home Partition
  • 180 TB /scratch Partition
Changed:
<
<

Genaue Liste der Austattung der einzelnen Knoten mit Hauptspeicher

>
>

Genaue Liste der Austattung der einzelnen Knoten mit Hauptspeicher

  Als schnelles Kommunikationssystem dient Infiniband.

Revision 222010-11-25 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 24 to 24
 
  • 3 TB /home Partition
  • 180 TB /scratch Partition
Added:
>
>

Genaue Liste der Austattung der einzelnen Knoten mit Hauptspeicher

 Als schnelles Kommunikationssystem dient Infiniband.

Zugang zum System

Revision 212010-11-22 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 44 to 44
 

Das Webinterface myJAM

Added:
>
>

Remote Visualization

 

Tipps und Tricks zur Benutzung von Palma

Revision 202010-11-16 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"

Übersicht

Changed:
<
<
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2792 Prozessorkernen. Diese sind wie folgt verteilt:
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 3008 Prozessorkernen. Diese sind wie folgt verteilt:
 
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
Changed:
<
<
  • 198 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
>
>
  • 216 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
 
  • 4 SMP (shared memory) Knoten mit je 32 Prozessorkernen

Die Ausstattung im Detail:

Revision 192010-10-12 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 29 to 29
 

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

Changed:
<
<
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (geht über MeinZIV)
  • Der Benutzer muß Mitglied eines der 24 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden
>
>
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (die Mitgliedschaft kann sich jeder Nutzer selbst über das Webinterface MeinZIV zuteilen)
  • Der Benutzer muß Mitglied eines der 24 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im Webinterface myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden
  Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).
Line: 46 to 46
 

Tipps und Tricks zur Benutzung von Palma

Deleted:
<
<

Organisatorisches

Infos zu PALMA-Treffen, etc. ... in Vorbereitung

  -- HolgerAngenent - 2010-07-08

Revision 182010-10-06 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 30 to 30
  Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (geht über MeinZIV)
Changed:
<
<
  • Der Benutzer muß Mitglied eines der 24 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im myJAM registriert werden
>
>
  • Der Benutzer muß Mitglied eines der 24 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im myJAM registriert werden und dort zu den jeweiligen Projekten zugeordnet werden
  Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).
Deleted:
<
<
Außerdem kann pbstop für eine einfache Übersicht über laufende Jobs von der Kommandozeile aus verwendet werden.
 Der von außen per ssh erreichbare Loginknoten heißt zivcluster.uni-muenster.de. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc.

Sollten generell Fragen zum Zugang, bzw der Benutzung von Palma auftreten, einfach eine Mail an Holger Angenent (holger.angenent (at) uni-muenster.de) schreiben.

Revision 172010-09-27 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 30 to 30
  Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (geht über MeinZIV)
Changed:
<
<
  • Der Benutzer muß Mitglied eines der 23 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im myJAM registriert werden
>
>
  • Der Benutzer muß Mitglied eines der 24 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im myJAM registriert werden
  Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).

Revision 162010-08-16 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Changed:
<
<
>
>
 
Changed:
<
<

Overview

>
>

Übersicht

 
Changed:
<
<
PALMA (Paralleles Linux-System für Münsteraner Anwender) is a cluster consisting of 2792 CPU cores. They are distributed as follows:
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2792 Prozessorkernen. Diese sind wie folgt verteilt:
 
Changed:
<
<
  • 36 nodes with 2 quadcore Intel Nehalem processors each, totally 8 cores per node
  • 198 nodes with 2 hexacore Intel Westmere processors, totally 12 cores per node
  • 4 SMP (shared memory) nodes with 32 cores each
>
>
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 198 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
  • 4 SMP (shared memory) Knoten mit je 32 Prozessorkernen
 
Changed:
<
<
The configuration in detail:
>
>
Die Ausstattung im Detail:
  Compute Nodes:
Changed:
<
<
  • 2,6 GHz, 4 respectively 6 cores
  • 2 GB (Westmere) respectively 3 (Nehalem) respectively 4 GB (Westmere) main memory per core
>
>
  • 2,6 GHz, 4 bzw. 6 Kerne
  • 2 bzw. 3 bzw. 4 GB Arbeitsspeicher pro Prozessorkern (je nach Knoten)
  SMP-System:
Changed:
<
<
  • 32 cores with 2 GHz
  • 128 GB main memory
>
>
  • 32 Kerne mit 2 GHz
  • 128 GB Hauptspeicher
  Filesystem:
Changed:
<
<
  • 3 TB /home partition
  • 180 TB /scratch partition
>
>
  • 3 TB /home Partition
  • 180 TB /scratch Partition
 
Changed:
<
<
Infiniband is serving as a fast interconnect.
>
>
Als schnelles Kommunikationssystem dient Infiniband.
 
Changed:
<
<

Access to the system

>
>

Zugang zum System

  Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (geht über MeinZIV)

Revision 152010-08-16 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Changed:
<
<
>
>
 
Changed:
<
<

Übersicht

>
>

Overview

 
Changed:
<
<
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2792 Prozessorkernen. Diese sind wie folgt verteilt:
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) is a cluster consisting of 2792 CPU cores. They are distributed as follows:
 
Changed:
<
<
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 198 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
  • 4 SMP (shared memory) Knoten mit je 32 Prozessorkernen
>
>
  • 36 nodes with 2 quadcore Intel Nehalem processors each, totally 8 cores per node
  • 198 nodes with 2 hexacore Intel Westmere processors, totally 12 cores per node
  • 4 SMP (shared memory) nodes with 32 cores each
 
Changed:
<
<
Die Ausstattung im Detail:
>
>
The configuration in detail:
  Compute Nodes:
Changed:
<
<
  • 2,6 GHz, 4 bzw. 6 Kerne
  • 2 bzw. 3 bzw. 4 GB Arbeitsspeicher pro Prozessorkern (je nach Knoten)
>
>
  • 2,6 GHz, 4 respectively 6 cores
  • 2 GB (Westmere) respectively 3 (Nehalem) respectively 4 GB (Westmere) main memory per core
  SMP-System:
Changed:
<
<
  • 32 Kerne mit 2 GHz
  • 128 GB Hauptspeicher
>
>
  • 32 cores with 2 GHz
  • 128 GB main memory
  Filesystem:
Changed:
<
<
  • 3 TB /home Partition
  • 180 TB /scratch Partition
>
>
  • 3 TB /home partition
  • 180 TB /scratch partition
 
Changed:
<
<
Als schnelles Kommunikationssystem dient Infiniband.
>
>
Infiniband is serving as a fast interconnect.
 
Changed:
<
<

Zugang zum System

>
>

Access to the system

  Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:
  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (geht über MeinZIV)

Revision 142010-08-12 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 16 to 16
 
  • 2,6 GHz, 4 bzw. 6 Kerne
  • 2 bzw. 3 bzw. 4 GB Arbeitsspeicher pro Prozessorkern (je nach Knoten)
Added:
>
>
SMP-System:
  • 32 Kerne mit 2 GHz
  • 128 GB Hauptspeicher
 Filesystem:
  • 3 TB /home Partition
  • 180 TB /scratch Partition

Revision 132010-08-12 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Deleted:
<
<
(diese Seite befindet sich noch im Aufbau)
 

Übersicht

Line: 10 to 8
 
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 198 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
Changed:
<
<
  • 1 SMP (shared memory) Knoten mit 128 Prozessorkernen (noch nicht in Betrieb)
>
>
  • 4 SMP (shared memory) Knoten mit je 32 Prozessorkernen
  Die Ausstattung im Detail:
Line: 37 to 35
  Der von außen per ssh erreichbare Loginknoten heißt zivcluster.uni-muenster.de. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc.
Added:
>
>
Sollten generell Fragen zum Zugang, bzw der Benutzung von Palma auftreten, einfach eine Mail an Holger Angenent (holger.angenent (at) uni-muenster.de) schreiben.
 

Rechnen auf PALMA

Revision 122010-08-09 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
(diese Seite befindet sich noch im Aufbau)
Line: 31 to 31
 
  • Der Benutzer muß Mitglied eines der 23 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im myJAM registriert werden

Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier:

Changed:
<
<
https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort)
>
>
https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort).

Außerdem kann pbstop für eine einfache Übersicht über laufende Jobs von der Kommandozeile aus verwendet werden.

  Der von außen per ssh erreichbare Loginknoten heißt zivcluster.uni-muenster.de. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc.

Revision 112010-07-26 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
(diese Seite befindet sich noch im Aufbau)
Line: 33 to 33
 Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort)
Changed:
<
<
Der von außen per ssh erreichbare Loginknoten heißt palma1. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc.
>
>
Der von außen per ssh erreichbare Loginknoten heißt zivcluster.uni-muenster.de. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc.
 

Rechnen auf PALMA

Revision 102010-07-23 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
(diese Seite befindet sich noch im Aufbau)
Line: 6 to 6
 

Übersicht

Changed:
<
<
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2664 Prozessorkernen. Diese sind wie folgt verteilt:
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2792 Prozessorkernen. Diese sind wie folgt verteilt:
 
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 198 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten

Revision 92010-07-22 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
(diese Seite befindet sich noch im Aufbau)
Line: 24 to 24
  Als schnelles Kommunikationssystem dient Infiniband.
Deleted:
<
<

Organisatorisches

Infos zu PALMA-Treffen, etc. ... in Vorbereitung

 

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

Line: 46 to 42
 

Tipps und Tricks zur Benutzung von Palma

Added:
>
>

Organisatorisches

Infos zu PALMA-Treffen, etc. ... in Vorbereitung

 -- HolgerAngenent - 2010-07-08

Revision 82010-07-22 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
(diese Seite befindet sich noch im Aufbau)
Line: 6 to 6
 

Übersicht

Changed:
<
<
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2576 Prozessorkernen. Diese sind wie folgt verteilt:
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2664 Prozessorkernen. Diese sind wie folgt verteilt:
 
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 198 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
Changed:
<
<
  • 1 SMP (shared memory) Knoten mit 128 Prozessorkernen
>
>
  • 1 SMP (shared memory) Knoten mit 128 Prozessorkernen (noch nicht in Betrieb)
  Die Ausstattung im Detail:
Line: 37 to 37
 Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort)
Changed:
<
<
Der von außen per ssh erreichbare Loginknoten heißt palma1.
>
>
Der von außen per ssh erreichbare Loginknoten heißt palma1. Für eine grafische Oberfläche gibt es zusätzlich den Login per vnc.
 

Rechnen auf PALMA

Revision 72010-07-15 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
(diese Seite befindet sich noch im Aufbau)

Revision 62010-07-14 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
(diese Seite befindet sich noch im Aufbau)
Line: 6 to 6
 

Übersicht

Changed:
<
<
PALMA (Paralleses Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2576 Prozessorkernen. Diese sind wie folgt verteilt:
>
>
PALMA (Paralleles Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2576 Prozessorkernen. Diese sind wie folgt verteilt:
 
  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 198 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten

Revision 52010-07-12 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
(diese Seite befindet sich noch im Aufbau)
Line: 39 to 39
  Der von außen per ssh erreichbare Loginknoten heißt palma1.
Changed:
<
<

Rechnen auf PALMA

>
>

Rechnen auf PALMA

 
Changed:
<
<

Kompilieren von Programmen

>
>

Das Webinterface myJAM

 
Changed:
<
<

Das Modul-Konzept

Umgebungsvariablen (z.B. PATH, LD_LIBRARY_PATH) für Compiler und Bibliotheken werden über module-Befehle definiert:

Befehl (Kurz- und Langform) Bedeutung
module av[ailable] Listet alle verfügbaren Module auf
module li[st] Zeigt alle in der aktuellen Umgebung geladenen Module.
module show modulname Listet die Änderungen auf, die ein Modul an der Umgebung bewirkt.
module add modul1 modul2 ... Fügt Module der aktuellen Umgebung hinzu.
module rm modul1 modul2 ... Entfernt Module aus der aktuellen Umgebung.
module purge Löscht alle aktivierten Module aus der Umgebung.

Um alle verfügbaren Module zu sehen, müssen die folgenden beiden Module geladen werden (dies kann am besten über die .bashrc geschehen):

module add shared

module add /Applic.PALMA/modules/path

Submittieren von Jobs

Für die Verteilung von Rechenjobs auf dem Cluster sorgen das Batchsystem TORQUE sowie der Scheduler Maui. Ein manuelles Starten von längeren Programmläufen auf den Rechenknoten oder auf PALMA am Batchsytem vorbei ist nicht erlaubt. Solche "streunenden" Prozesse werden ohne Vorwarnung vom Administrator beendet. Grundsätzlich sollten Batch-Jobs nur vom Dialogserver palma1 aus abgeschickt werden.

Erstellen des submit-files

Beispiel für ein submit-file eines MPI-Jobs:

#PBS -o output.dat
#PBS -l walltime=01:00:00,nodes=4:westmere:ppn=12
#PBS -A Projektname
#PBS -M Nutzername@uni-muenster.de
#PBS -m ae
#PBS -q default
#PBS -N Jobname
#PBS -j oe
cd $HOME/Jobverzeichnis
cp $PBS_NODEFILE $HOME/$PBS_JOBID.nodefile
mpdboot --rsh=ssh -n 2 -f ~/$PBS_JOBID.nodefile  -v
mpirun --rsh=ssh -machinefile $PBS_NODEFILE -np 32 ./Programmname

Hier wird ein MPI-Job gestartet, der mit insgesamt 32 Prozessen läuft. Dazu werden 4 westmere-Knoten mit je 12 Prozessorkernen angefordert.

Weitere Angaben:

  • Projektname: Muss unbedingt durch das eigene Projekt erstetzt werden, ansonsten startet der Job nicht.
  • Nutzername: Durch eigene Kennung ersetzen, damit Emails korrekt zugestellt werden können
  • Jobverzeichnis: Durch Pfad, in dem das Programm liegt, ersetzen.
  • Programmname: Hier den Namen der auszuführenden Datei eintragen.
  • walltime: Die nötige Zeit, die das Programm läuft, angeben. Nach Ablauf der Zeit wird der Job abgebrochen. Maximal 48 Stunden sind möglich.

Benötigt das Programm kein MPI, kann die Datei entsprechend vereinfacht werden.

Beispiel für ein submit-file eines openmp Jobs:

#PBS -o output.dat
#PBS -l walltime=01:00:00,nodes=1:westmere:ppn=12
#PBS -A Projektname
#PBS -M Nutzername@uni-muenster.de
#PBS -m ae
#PBS -q default
#PBS -N Jobname
#PBS -j oe
cd $HOME/Jobverzeichnis
./Programmname

Abschicken des Jobs/Verwaltung der Warteschlange

Ein Job wird gestartet, indem die oben erzeugte submit-Datei mittels

 qsub submit.cmd 
abgeschickt wird, wobei submit.cmd der Name der submit-Datei ist.

Weitere Befehle:

  • qstat: Zeigt die derzeitige Warteschlange an
  • qstat -a: Selbiges, nur mit Anzahl der angeforderten Knoten
  • qstat -n: Alle Knoten, die den Jobs zugeordnet sind, werden aufgeschlüsselt
  • qdel Jobnummer: Löscht Jobs aus der Warteschlange
  • showbf: Zeigt die Anzahl der freien Prozessorkerne

Die Auswahl der Rechenknoten

Mit der Option -l legt man die Ressourcenanforderungen für den Batch-Job fest. Bei der Festlegung der Anzahl und Art der Nodes ist zu beachten, dass die Rechenknoten des Systems zur Unterscheidung mit den Eigenschaften "nehalem" und "westmere" gekennzeichnet sind. Außerdem gibt es pro Node mehrere CPU-Kerne, so dass die Angabe nodes zwei unterschiedliche Bedeutungen haben kann. Die folgende Tabelle soll verdeutlichen, wie sich die Angabe nodes auf die Auswahl der Rechenknoten auswirkt:

Angabe im Batch-Job Auswahl der Rechenknoten
-l nodes=10 10 beliebige CPU-Kerne. Nicht zu empfehlen.
-l nodes=2:ppn=12 2 westmere Knoten
-l nodes=1:ppn=8 8 Prozessorkerne eines westmere oder nehalem Knotens
-l nodes=2:nehalem:ppn=8+3:westmere:ppn=12 16 Prozessorkerne von 2 nehalem Knoten und 36 Prozessorkerne von 3 westmere Knoten
-l nodes=8:ppn=1 Fehlerhafte Zuteilung. Die Anzahl von ppn, wenn angegeben, sollte größer oder gleich 2 sein. Aufgrund eines Bugs in TORQUE erhält man für ppn=1 nicht das erwartete Ergebnis, sondern z.B. in diesem Fall 8 willkürlich über die HPC-Rechnenknoten verteilte Cores.

Generell sollten immer komplette Knoten angefordert werden, d.h. Angaben wie

nodes=x:nehalem:ppn=8
oder
nodes=x:westmere:ppn=12
gemacht werden.

Bei Bedarf können die einzelnen Chassis, in denen die Knoten stecken, auch direkt angefordert werden. Dazu ist statt der Angabe #PBS -q default die Angabe des Chassis nötig. Es kann zwischen folgenden Chassis gewählt werden: chassisd1, chassisd2, chassisd3, chassisd4, chassise1, chassise2, chassise3, chassisf1, chassisf2, chassisf3, chassisg1 wobei die Chassis d1 und d2 nehalem Prozessoren besitzen und das chassis g1 48GB statt 24 GB Hauptspeicher pro Knoten hat.

Die scratch Partition

Paralles speichern von Daten auf /scratch... in Vorbereitung

Unter /scratch befinden sich 180 TB Speicherplatz, der genutzt werden kann, um die in den Programmen generierten Daten zu speichern. Diese sollten aus Platz- und Geschwindigkeitsgründen nicht im Homeverzeichnis gespeichert werden. Als Dateisystem kommt lustre zum Einsatz, das einige Besonderheiten besitzt.

Es wird kein Backup dieser Partition durchgeführt!

Das Webinterface myJAM

>
>

Tipps und Tricks zur Benutzung von Palma

  -- HolgerAngenent - 2010-07-08

Revision 42010-07-09 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Added:
>
>
(diese Seite befindet sich noch im Aufbau)
 

Übersicht

Line: 7 to 9
 PALMA (Paralleses Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2576 Prozessorkernen. Diese sind wie folgt verteilt:

  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
Changed:
<
<
  • 180 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
>
>
  • 198 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
 
  • 1 SMP (shared memory) Knoten mit 128 Prozessorkernen

Die Ausstattung im Detail:

Line: 106 to 108
 cd $HOME/Jobverzeichnis ./Programmname
Added:
>
>

Abschicken des Jobs/Verwaltung der Warteschlange

Ein Job wird gestartet, indem die oben erzeugte submit-Datei mittels

 qsub submit.cmd 
abgeschickt wird, wobei submit.cmd der Name der submit-Datei ist.

Weitere Befehle:

  • qstat: Zeigt die derzeitige Warteschlange an
  • qstat -a: Selbiges, nur mit Anzahl der angeforderten Knoten
  • qstat -n: Alle Knoten, die den Jobs zugeordnet sind, werden aufgeschlüsselt
  • qdel Jobnummer: Löscht Jobs aus der Warteschlange
  • showbf: Zeigt die Anzahl der freien Prozessorkerne
 

Die Auswahl der Rechenknoten

Mit der Option -l legt man die Ressourcenanforderungen für den Batch-Job fest. Bei der Festlegung der Anzahl und Art der Nodes ist zu beachten, dass die Rechenknoten des Systems zur Unterscheidung mit den Eigenschaften "nehalem" und "westmere" gekennzeichnet sind. Außerdem gibt es pro Node mehrere CPU-Kerne, so dass die Angabe nodes zwei unterschiedliche Bedeutungen haben kann. Die folgende Tabelle soll verdeutlichen, wie sich die Angabe nodes auf die Auswahl der Rechenknoten auswirkt:

Line: 129 to 142
  Unter /scratch befinden sich 180 TB Speicherplatz, der genutzt werden kann, um die in den Programmen generierten Daten zu speichern. Diese sollten aus Platz- und Geschwindigkeitsgründen nicht im Homeverzeichnis gespeichert werden. Als Dateisystem kommt lustre zum Einsatz, das einige Besonderheiten besitzt.
Added:
>
>
Es wird kein Backup dieser Partition durchgeführt!
 

Das Webinterface myJAM

-- HolgerAngenent - 2010-07-08

Revision 32010-07-09 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Line: 22 to 22
  Als schnelles Kommunikationssystem dient Infiniband.
Added:
>
>

Organisatorisches

Infos zu PALMA-Treffen, etc. ... in Vorbereitung

 

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

Line: 61 to 65
 

Submittieren von Jobs

Für die Verteilung von Rechenjobs auf dem Cluster sorgen das Batchsystem TORQUE sowie der Scheduler Maui. Ein manuelles Starten von längeren Programmläufen auf den Rechenknoten oder auf PALMA am Batchsytem vorbei ist nicht erlaubt. Solche "streunenden" Prozesse werden ohne Vorwarnung vom Administrator beendet. Grundsätzlich sollten Batch-Jobs nur vom Dialogserver palma1 aus abgeschickt werden.
Added:
>
>

Erstellen des submit-files

Beispiel für ein submit-file eines MPI-Jobs:

#PBS -o output.dat
#PBS -l walltime=01:00:00,nodes=4:westmere:ppn=12
#PBS -A Projektname
#PBS -M Nutzername@uni-muenster.de
#PBS -m ae
#PBS -q default
#PBS -N Jobname
#PBS -j oe
cd $HOME/Jobverzeichnis
cp $PBS_NODEFILE $HOME/$PBS_JOBID.nodefile
mpdboot --rsh=ssh -n 2 -f ~/$PBS_JOBID.nodefile  -v
mpirun --rsh=ssh -machinefile $PBS_NODEFILE -np 32 ./Programmname

Hier wird ein MPI-Job gestartet, der mit insgesamt 32 Prozessen läuft. Dazu werden 4 westmere-Knoten mit je 12 Prozessorkernen angefordert.

Weitere Angaben:

  • Projektname: Muss unbedingt durch das eigene Projekt erstetzt werden, ansonsten startet der Job nicht.
  • Nutzername: Durch eigene Kennung ersetzen, damit Emails korrekt zugestellt werden können
  • Jobverzeichnis: Durch Pfad, in dem das Programm liegt, ersetzen.
  • Programmname: Hier den Namen der auszuführenden Datei eintragen.
  • walltime: Die nötige Zeit, die das Programm läuft, angeben. Nach Ablauf der Zeit wird der Job abgebrochen. Maximal 48 Stunden sind möglich.

Benötigt das Programm kein MPI, kann die Datei entsprechend vereinfacht werden.

Beispiel für ein submit-file eines openmp Jobs:

#PBS -o output.dat
#PBS -l walltime=01:00:00,nodes=1:westmere:ppn=12
#PBS -A Projektname
#PBS -M Nutzername@uni-muenster.de
#PBS -m ae
#PBS -q default
#PBS -N Jobname
#PBS -j oe
cd $HOME/Jobverzeichnis
./Programmname

Die Auswahl der Rechenknoten

Mit der Option -l legt man die Ressourcenanforderungen für den Batch-Job fest. Bei der Festlegung der Anzahl und Art der Nodes ist zu beachten, dass die Rechenknoten des Systems zur Unterscheidung mit den Eigenschaften "nehalem" und "westmere" gekennzeichnet sind. Außerdem gibt es pro Node mehrere CPU-Kerne, so dass die Angabe nodes zwei unterschiedliche Bedeutungen haben kann. Die folgende Tabelle soll verdeutlichen, wie sich die Angabe nodes auf die Auswahl der Rechenknoten auswirkt:

Angabe im Batch-Job Auswahl der Rechenknoten
-l nodes=10 10 beliebige CPU-Kerne. Nicht zu empfehlen.
-l nodes=2:ppn=12 2 westmere Knoten
-l nodes=1:ppn=8 8 Prozessorkerne eines westmere oder nehalem Knotens
-l nodes=2:nehalem:ppn=8+3:westmere:ppn=12 16 Prozessorkerne von 2 nehalem Knoten und 36 Prozessorkerne von 3 westmere Knoten
-l nodes=8:ppn=1 Fehlerhafte Zuteilung. Die Anzahl von ppn, wenn angegeben, sollte größer oder gleich 2 sein. Aufgrund eines Bugs in TORQUE erhält man für ppn=1 nicht das erwartete Ergebnis, sondern z.B. in diesem Fall 8 willkürlich über die HPC-Rechnenknoten verteilte Cores.

Generell sollten immer komplette Knoten angefordert werden, d.h. Angaben wie

nodes=x:nehalem:ppn=8
oder
nodes=x:westmere:ppn=12
gemacht werden.

Bei Bedarf können die einzelnen Chassis, in denen die Knoten stecken, auch direkt angefordert werden. Dazu ist statt der Angabe #PBS -q default die Angabe des Chassis nötig. Es kann zwischen folgenden Chassis gewählt werden: chassisd1, chassisd2, chassisd3, chassisd4, chassise1, chassise2, chassise3, chassisf1, chassisf2, chassisf3, chassisg1 wobei die Chassis d1 und d2 nehalem Prozessoren besitzen und das chassis g1 48GB statt 24 GB Hauptspeicher pro Knoten hat.

Die scratch Partition

Paralles speichern von Daten auf /scratch... in Vorbereitung

Unter /scratch befinden sich 180 TB Speicherplatz, der genutzt werden kann, um die in den Programmen generierten Daten zu speichern. Diese sollten aus Platz- und Geschwindigkeitsgründen nicht im Homeverzeichnis gespeichert werden. Als Dateisystem kommt lustre zum Einsatz, das einige Besonderheiten besitzt.

Das Webinterface myJAM

  -- HolgerAngenent - 2010-07-08

Revision 22010-07-09 - HolgerAngenent

Line: 1 to 1
 
META TOPICPARENT name="HPC"
Added:
>
>
 

Übersicht

PALMA (Paralleses Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2576 Prozessorkernen. Diese sind wie folgt verteilt:

Line: 34 to 36
 

Rechnen auf PALMA

Kompilieren von Programmen

Changed:
<
<
Umgebungsvariablen (z.B. PATH) werden über den "module"-Befehl an die eigenen Bedürfnisse angepasst. Dies ist die grundlegende Neuerung gegenüber dem alten Parallelrechner ZIVcluster.
>
>

Das Modul-Konzept

Umgebungsvariablen (z.B. PATH, LD_LIBRARY_PATH) für Compiler und Bibliotheken werden über module-Befehle definiert:

Befehl (Kurz- und Langform) Bedeutung
module av[ailable] Listet alle verfügbaren Module auf
module li[st] Zeigt alle in der aktuellen Umgebung geladenen Module.
module show modulname Listet die Änderungen auf, die ein Modul an der Umgebung bewirkt.
module add modul1 modul2 ... Fügt Module der aktuellen Umgebung hinzu.
module rm modul1 modul2 ... Entfernt Module aus der aktuellen Umgebung.
module purge Löscht alle aktivierten Module aus der Umgebung.

Um alle verfügbaren Module zu sehen, müssen die folgenden beiden Module geladen werden (dies kann am besten über die .bashrc geschehen):

module add shared

module add /Applic.PALMA/modules/path

 

Submittieren von Jobs

Für die Verteilung von Rechenjobs auf dem Cluster sorgen das Batchsystem TORQUE sowie der Scheduler Maui. Ein manuelles Starten von längeren Programmläufen auf den Rechenknoten oder auf PALMA am Batchsytem vorbei ist nicht erlaubt. Solche "streunenden" Prozesse werden ohne Vorwarnung vom Administrator beendet. Grundsätzlich sollten Batch-Jobs nur vom Dialogserver palma1 aus abgeschickt werden.

Revision 12010-07-08 - HolgerAngenent

Line: 1 to 1
Added:
>
>
META TOPICPARENT name="HPC"

Übersicht

PALMA (Paralleses Linux-System für Münsteraner Anwender) ist ein Cluster aus insgesamt 2576 Prozessorkernen. Diese sind wie folgt verteilt:

  • 36 Knoten mit je 2 4-Kern Intel Nehalem Prozessoren, also 8 Kernen pro Knoten
  • 180 Knoten mit je 2 6-Kern Intel Westmere Prozessoren, also 12 Kernen pro Knoten
  • 1 SMP (shared memory) Knoten mit 128 Prozessorkernen

Die Ausstattung im Detail:

Compute Nodes:

  • 2,6 GHz, 4 bzw. 6 Kerne
  • 2 bzw. 3 bzw. 4 GB Arbeitsspeicher pro Prozessorkern (je nach Knoten)

Filesystem:

  • 3 TB /home Partition
  • 180 TB /scratch Partition

Als schnelles Kommunikationssystem dient Infiniband.

Zugang zum System

Es ist grundsätzlich nur Personen möglich, Jobs auf Palma abzuschicken, die zwei Voraussetzungen erfüllen:

  • Der Benutzer muß Mitglied der Gruppe u0clustr sein (geht über MeinZIV)
  • Der Benutzer muß Mitglied eines der 23 Projekte sein, die für das System zugelassen sind. In diesem Fall kann der Benutzer im myJAM registriert werden

Eine Übersicht über die Warteschlangen sowie die Auslastung des Gesamtsystems befindet sich hier: https://palma1.uni-muenster.de/myJAM (anmelden mit dem üblichen Benutzernamen und dem Standardpasswort)

Der von außen per ssh erreichbare Loginknoten heißt palma1.

Rechnen auf PALMA

Kompilieren von Programmen

Umgebungsvariablen (z.B. PATH) werden über den "module"-Befehl an die eigenen Bedürfnisse angepasst. Dies ist die grundlegende Neuerung gegenüber dem alten Parallelrechner ZIVcluster.

Submittieren von Jobs

Für die Verteilung von Rechenjobs auf dem Cluster sorgen das Batchsystem TORQUE sowie der Scheduler Maui. Ein manuelles Starten von längeren Programmläufen auf den Rechenknoten oder auf PALMA am Batchsytem vorbei ist nicht erlaubt. Solche "streunenden" Prozesse werden ohne Vorwarnung vom Administrator beendet. Grundsätzlich sollten Batch-Jobs nur vom Dialogserver palma1 aus abgeschickt werden.

-- HolgerAngenent - 2010-07-08

 
This site is powered by the TWiki collaboration platform Powered by PerlCopyright © 2008-2023 by the contributing authors. All material on this collaboration platform is the property of the contributing authors.
Ideas, requests, problems regarding ZIVwiki? Send feedback
Datenschutzerklärung Impressum