WICHTIG: Bitte aendern Sie mit dem Kommandozeilenbefehl

  passwd

nach dem ersten erfolgreichen Login das Initial-Passwort sofort
auf einen ganz geheimen nur Ihnen bekannten Wert (sollte 8 
Zeichen lang sein und neben Buchstaben auch Interpunktionszeichen 
und Ziffern enthalten ==> nicht so leicht zu 'knacken').

WICHTIG: Auf zusie gilt (wie fuer alle Rechner im Compute Server
Pool): Es wird kein Backup angefertigt ... d.h. wenn irgendwas
im Plattensystem kaputt laeuft ist alles futsch. Die NutzerInnen
sind darum gebeten, selbsttaetig ein Backup/Archiv (am Institutsarbeitsplatzrechner
z.B.) zu fuehren.

Ausstattung:

  - 32 Blades mit je 2 Sockeln mit je einem 8-Kerner @ 2,2 GHz
       ==> 32 * 16 = 512 Cores (Hyperthreading ist aufgedreht ==> 1024 HyperThreads)
  - je Blade 2 x 32 GigaByte RAM (dh. in Summe 2 TeraByte)
  - SuSE SLES 11 SP1; Linux 2.6.32 x86_64;
    interaktiver Multiuser-Betrieb ohne Rechenlaufverwaltungssystem 

Es wurde auf zusie ein cpuset (Ressourcenpaket aus CPU-Kernen
und Speichermodulen) im Umfang von 256 Rechenkerne und rund
einem Terabyte RAM unter dem Namen
 
  /Upper256sh

angelegt (das steht fuer "oberer Teil der kleinen UV ohne
HyperThreading"), in dem alle "riscXX" accounts laufen:

   risc33@zusie:~> my_cpuset.csh 
   cpuset: /Upper256sh
   allowed resource Ids: 
   Cpus_allowed_list:	256-511
   Mems_allowed_list:	32-63

   risc33@zusie:~> meminfo-free-RAM

     === UV1000 vnode Memory Info:
   
     CPUset: /Upper256sh
       mems: 32,33,34,35,36,37,38,39,40,41,42,43,44,45,46,47,48,49,50,51,52,53,54,55,56,57,58,59,60,61,62,63

     idx   TOTAL kB          Free kB          Used kB       Used %
     -------------------+----------------+--------------   -------
      32   33554432 kB  |   30423360 kB  |    3131072 kB    9.33 %
      33   33538048 kB  |   31342508 kB  |    2195540 kB    6.55 %
      34   33554432 kB  |   31322832 kB  |    2231600 kB    6.65 %
      35   33538048 kB  |   31331224 kB  |    2206824 kB    6.58 %
      36   33554432 kB  |   31292348 kB  |    2262084 kB    6.74 %
      ..   ............     ..
      ..   ............     ..
      60   33554432 kB  |   31277432 kB  |    2277000 kB    6.79 %
      61   33538048 kB  |   31330976 kB  |    2207072 kB    6.58 %
      62   33554432 kB  |   28311800 kB  |    5242632 kB   15.62 %
      63   33538048 kB  |   31272736 kB  |    2265856 kB    6.76 %
          ------------  |  ------------  |  ------------   -------
           1023.750 gb  |    952.128 gb  |     71.623 gb    7.00 %
   
     CPU Cores: 256   (on 32 vnodes)
     
Mit Hilfe von

   dplace

(bzw. als extra Variante fuer OpenMP-Programmierung omplace) kann
auch fuer MPI-Programme eine CPU-Affinitaet (die "logischen" CPU Ids beziehen
sich auf die Indizes innerhalb des cpusets) erzwungen werden. Und 

   dlook

zeigt die erreichte Zuordnung.

Aber auch im "einfachen" Linux top (es wurde eine eigene Variante namens
jkutop programmiert ... sehr praktisch zum Aufspueren von "CPU / SystemCall Hogs"
auf einer AltixUV) kann "Last used cpu (SMP)" nuetzlich sein, um
festzustellen, ob man/frau 2 Prozesse auf denselben CPU-Kern gebunden hat.

Unter zusie:/usr/local/docs liegen einige SGI Handbuecher bereit.
Eventuell interessant:

  - SGI UPC (Unified Parallel C ... Datenparalleles Paradigma; siehe "man sgiupc")
       module load sgi-upc-devel
       man sgiupc
       module load mpt
       sgiupc -O -v -LANG:upc_threads=8 test.c -o test
       mpirun -np 8 ./test

  - CilkPlus (kommt mittlerweile mit dem Intel Compiler):
       module load intelcompiler
       man icc 
          --> nach "cilk" suchen
       ls /apps/intel/compiler/composerxe-2011.3.174/Samples/en_US/C++/cilk_samples/
          --> Makefile  cilktime.h  linear-recurrence.cpp  matrix-multiply.cpp  
              matrix.cpp  qsort-mutex.cpp  qsort.cpp
Última modificación: lunes, 24 de febrero de 2020, 10:07