Краткая инструкция участника летней суперкомпьютерной академии Сайт академии МГУ: http://academy.hpc-russia.ru Суперкомпьютер Regatta Общие сведения: • Учетная запись имеет вид edu-acad13-XXX, где XXX персональный трехзначный номер участника. • Доступ осуществляется по логину/паролю • Адрес вычислительной системы для ssh доступа: regatta.cs.msu.su Доступ к вычислительной системе: Windows: • Используйте программу putty для доступа к терминалу вычислительной системе. • Используйте программу winscp для передачи файлов на суперкомпьютер или с него. Linux: • Используйте команду ssh <ваш_логин>@regatta.cs.msu.su например ssh [email protected] • Используйте команду scp для передачи данных на суперкомпьютер или с него. например scp aaa.txt [email protected]:./ Компиляция: • Компиляция производится на интерфейсной машине. • Компиляторы для программ MPI — mpicc, mpicxx, xlc, xlcxx... • Пример MPI программы компиляции: mpicc hello.c -o hello • Пример компиляции программы с OpenMP: xlc_r -qsmp=omp hello.c -o hello Запуск • Запуск производится через систему очередей (задача ставится в очередь и ожидает требуемых ресурсов) c помощью команды mpisubmit для программ MPI mpisubmit -n <кол-во процессоров> -w 15:00 <ваша программа> <параметры> команда ompsubmit для программ OpenMP ompsubmit -n <кол-во процессоров> -w 15:00 <ваша программа> <параметры> • Простейший вариант запуска: mpisubmit -n1 -w 15:00 <ваша программа> <параметры> стандартный вывод будет направлен в файл <ваша программа>.<номер задачи>.out, ошибки в .err Дополнительная информация: http://wiki.cs.msu.ru/Main/RegattaInstructions Техническая поддержка: сайт http://support.cs.msu.su Краткая инструкция участника летней суперкомпьютерной академии Сайт академии МГУ: http://academy.hpc-russia.ru Суперкомпьютер BlueGene /P Общие сведения: • Учетная запись имеет вид edu-acad13-XXX, где XXX персональный трехзначный номер участника. • Доступ осуществляется по логину/паролю • Адрес вычислительной системы для ssh доступа: 10.6.7.50 • Для доступа необходимо использовать VPN Доступ к вычислительной системе: Windows: • Используйте программу putty для доступа к терминалу вычислительной системе. • Используйте программу winscp для передачи файлов на суперкомпьютер или с него. Linux: • Используйте команду ssh <ваш_логин>@10.6.7.50 например ssh [email protected] • Используйте команду scp для передачи данных на суперкомпьютер или с него. например scp aaa.txt [email protected]:./ Компиляция: • Компиляция производится на интерфейсной машине. • Компиляторы для программ MPI — mpicc, mpicxx, mpixlc, mpixlcxx • Пример MPI программы компиляции: mpicc hello.c -o hello • Пример компиляции программы с OpenMP: mpicc -qsmp=omp hello.c -o hello Запуск • Запуск производится через систему очередей (задача ставится в очередь и ожидает требуемых ресурсов) c помощью команды mpisubmit.bg mpisubmit.bg -n <кол-во процессоров> -w 15:00 <ваша программа> <параметры> • Простейший вариант запуска: mpisubmit.bg -n1 -w 15:00 <ваша программа> <параметры> стандартный вывод будет направлен в файл <ваша программа>.<номер задачи>.out, ошибки в .err Дополнительная информация: http://hpc.cs.msu.su Техническая поддержка: сайт http://support.cs.msu.su Краткая инструкция участника летней суперкомпьютерной академии Сайт академии МГУ: http://academy.hpc-russia.ru Суперкомпьютер Ломоносов Общие сведения: • Учетная запись имеет вид edu-acad13-*, где * персональный логин участника. • Доступ осуществляется по вашему ключу, открытую часть которого вы добавили в интерфейс http://users.parallel.ru. Если при создании ключа вы указали passphrase (пароль), то он потребуется в момент подключения. Данный пароль нельзя восстановить, в случае утери придется создать новый ключ. • Адрес вычислительной системы для ssh доступа: lomonosov.parallel.ru Доступ к вычислительной системе: Windows: • Используйте программу putty для доступа к терминалу вычислительной системе. • Используйте программу winscp для передачи файлов на суперкомпьютер или с него. Linux: • Используйте команду ssh -i <путь/к/ключу> <ваш_логин>@lomonosov.parallel.ru например ssh -i .ssh/id_rsa [email protected] • Используйте команду scp для передачи данных на суперкомпьютер или с него. например scp -i .ssh/id_rsa /etc/passwd [email protected]:./_scratch/ Компиляция: • Компиляция производится на специальном вычислительном узле. Для доступа к нему выполните команду: ssh compiler • После захода на узел выполните команду: module load intel/13.1.0 impi/4.1.0 cuda (это настроит переменные окружения на использование icc, Intel MPI) • Вычислительные узлы видят только директорию ~/_scratch, храните все ваши исполняемые файлы там (иерархическая система хранения http://parallel.ru/node/7756) • Компиляторы для программ MPI — mpicc, mpicxx, mpif90 • Компилятор CUDA программ — nvcc • Пример MPI программы компиляции: mpicc testmpi.c -o hello • Пример компиляции программы с OpenMP: mpicc -openmp testopenmp.c -o hello Запуск • Запуск производится через систему очередей (задача ставится в очередь и ожидает требуемых ресурсов) c помощью команды sbatch. sbatch -p <имя очереди> -n<кол-во процессоров> <тип mpi> <ваша программа> <параметры> • Запускаются только исполняемые файлы, находящиеся в директории ~/_scratch/ ... • Простейший вариант запуска: sbatch -p test -n1 impi <ваша программа> <параметры> impi — указание Intel MPI, если выбрали openmpi, то нужно указывать ompi стандартный вывод будет направлен в файл slurm-<номер задачи>.out, ошибки в .err • Интерактивный запуск: srun -p test -n1 <ваша программа> <параметры> блокирует терминал на время выполнения, стандартный вывод идёт в терминал. Дополнительная информация: http://parallel.ru/cluster Техническая поддержка: [email protected] Краткая инструкция компиляции и запуска: Regatta: • MPI • mpicc testmpi.c -o testmpi mpisubmit -n 1 -w 15:00 testmpi • OpenMP • xlc -qsmp=omp testopenmp.c -o testomp ompsubmit -n1 -w 15:00 testomp BlueGene /P • MPI • mpixlc testmpit -o testmpi mpisubmit.bg -n 1 -w 15:00 testmpit • MPI+OpenMP • mpixlc_r -qsmp=omp testopenmp -o testomp mpisubmit.bg -n 1 -m smp -w 15:00 testomp Lomonosov • MPI • ssh compiler module load intel/13.1.0 impi/4.1.0 mpicc testmpi.c -o testmpi sbatch -p test -n 1 impi testmpi • MPI+OpenMP • ssh compiler module load intel/13.1.0 impi/4.1.0 mpicc -openmp testopenmp.c -o testomp sbatch -p test -N 1 --ntasks-per-node=1 impi testmpi • CUDA • module load intel/13.1.0 impi/4.1.0 cuda nvcc testcuda.c -o testcuda sbatch -p gputest -n 1 testcuda