Mudanças entre as edições de "Minicluster:Mpich"
m (→Creating Mpd.conf Files) |
m (→Contas de Usuário) |
||
Linha 40: | Linha 40: | ||
=== Contas de Usuário === | === Contas de Usuário === | ||
− | Cada usuário tem um arquivo <code>.mpd.conf</code> no seu diretório home e deve permitir acesso e leitura somente por este usuário. | + | Cada usuário tem um arquivo <code>.mpd.conf</code> no seu diretório home e deve permitir acesso e leitura somente por este usuário. |
− | + | [usuario]$ cd | |
− | MPD_SECRET_WORD=yours3cr3tw0rd | + | [usuario]$ vi .mpd.conf |
− | MPD_USE_ROOT_MPD=yes | + | MPD_SECRET_WORD=yours3cr3tw0rd |
− | </ | + | MPD_USE_ROOT_MPD=yes |
+ | onde | ||
+ | *<code>MPD_SECRET_WORD</code> pode ser única para cada usuário. | ||
+ | *<code>MPD_USE_ROOT_MPD</code> especifica que usuários não irão iniciar se próprio mpd daemons, mas irão usar um já rodando iniciado pelo root. | ||
− | * | + | Para criar um script para todos os usuários. |
− | * | + | * Crie o arquivo acima em |
+ | [root]$ cd | ||
+ | [root]$ vi .mpd.conf | ||
+ | [root]$ chmod 600 /root/.mpd.conf | ||
+ | * Faça uma cópia para cada usuário: | ||
+ | for x in `ls /shared/home/`; do rsync -plarv /root/.mpd.conf /shared/home/$x/; chown $x:users /shared/home/$x/.mpd.conf; done | ||
− | + | Troque <code>/shared/home/</code> com o diretório home dos usuários e troque <code>users</code> com o grupo que os usuários estão. | |
− | |||
− | |||
− | |||
− | |||
=== Future Users === | === Future Users === |
Edição das 10h25min de 17 de junho de 2010
Parece que na distribuição padrão não está presente.
Índice
Instalação
Máquina mestre
Como possui acesso a internet via segunda placa de rede, basta usar
yum install mpich2
Máquina escravo
Não possui acesso a internet. Existem várias possibilidades, porém estou tentando o seguinte:
- Baixar os pacotes .rpm necessários na máquina mestre e copiá-los para a máquina escravo.
tcl-8.5.7-5.fc13.x86_64.rpm environment-modules-3.2.7b-7.fc13.x86_64.rpm mpich2-1.2.1p1-2.fc13.x86_64.rpm mpich2-devel-1.2.1p1-2.fc13.x86_64.rpm
- Importar as keys necessárias para instalar os pacotes (não instalou direito usando apenas rpm):
rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-fedora-x86_64
ou melhor ainda, editar /etc/yum.conf para não reclamar sobre signature files
vi /etc/yum.conf .. gpgcheck=0 ..
- Instalar usando yum
[usuario]$ yum localinstall tcl-8.5.7-5.fc13.x86_64.rpm --disablerepo=fedora --disablerepo=updates [usuario]$ yum localinstall environment-modules-3.2.7b-7.fc13.x86_64.rpm --disablerepo=fedora --disablerepo=updates [usuario]$ yum localinstall mpich2-1.2.1p1-2.fc13.x86_64.rpm --disablerepo=fedora --disablerepo=updates [usuario]$ yum localinstall mpich2-devel-1.2.1p1-2.fc13.x86_64.rpm --disablerepo=fedora --disablerepo=updates
Configuração
This is part three of a multi-part tutorial on installing and configuring MPICH2. The full tutorial includes
MPICH sem funcionalidade Torque
Neste paradigma, usuários (e sysadmins) são responsáveis por mais overhead e mais possibilidade de erros de configuração. É recomendado usar um scheduler and queue com Torque.
Criar arquivos mpd.conf
Mpd significa "multi-purpose daemon." MPICH2 separa comunicação de processos de gerenciamento de processo usando o programa mpd para gerenciar qualquer processo usando MPI. Mpd necessita uma pequena configuração que não era necessário com MPICH1.
Contas de Usuário
Cada usuário tem um arquivo .mpd.conf
no seu diretório home e deve permitir acesso e leitura somente por este usuário.
[usuario]$ cd [usuario]$ vi .mpd.conf MPD_SECRET_WORD=yours3cr3tw0rd MPD_USE_ROOT_MPD=yes
onde
MPD_SECRET_WORD
pode ser única para cada usuário.MPD_USE_ROOT_MPD
especifica que usuários não irão iniciar se próprio mpd daemons, mas irão usar um já rodando iniciado pelo root.
Para criar um script para todos os usuários.
- Crie o arquivo acima em
[root]$ cd [root]$ vi .mpd.conf [root]$ chmod 600 /root/.mpd.conf
- Faça uma cópia para cada usuário:
for x in `ls /shared/home/`; do rsync -plarv /root/.mpd.conf /shared/home/$x/; chown $x:users /shared/home/$x/.mpd.conf; done
Troque /shared/home/
com o diretório home dos usuários e troque users
com o grupo que os usuários estão.
Future Users
In order to make sure new users automatically have this file created for them, create a .mpd.conf
file in /etc/skel/
on the machine you create user accounts from. Make sure it has a secret word and root mpd flag as shown above. Then, run
chmod 600 /etc/skel/.mpd.conf
This will make sure the file is created with only the user having read/write permissions.
Root's .mpd.conf
Similar to the users, root needs to have a mpd.conf
file on each one of the worker nodes. For root, rather than being stored in a home directory, this file is located at /etc/mpd.conf
. This file only needs one line:
MPD_SECRETWORD=yours3cr3tw0rd
You can replace yours3cr3tw0rd
with whatever you'd like. Then, make sure it's only readable/writable by root:
chmod 600 /etc/mpd.conf
Once you've created this file on one of your nodes, you can manually create it on each of the other nodes, or see the Cluster Time-saving Tricks page for tips on how to script this process. Make sure that the secret word matches on all of the worker nodes.
Rodando em uma máquina
Para rodar um programa MPI em uma máquina.
Inicie um Daemon
Escolha uma da máquinas escravo. SSH nesta máquina, como root, inicie mpd (multi-purpose daemon) para rodar em background com
mpd --daemon
Verifique que o mpd foi iniciado nesta máquina:
mpdtrace -l
Deveria aparecer algo como o Nome.da.maquina_PID (endereco.ip)
cell100.matrix_54419 (192.168.0.100)
Rodando um programa MPI
Conecte-se a uma máquina escravo usando ssh
ssh usuario@cell100
Abra o editor de texto e digite o programa "hello world" Creating and Compiling an MPI Program.
vi hellompi.f90
Rode o programa com um processo
mpiexec ./hellompi
Rode novamente usando mais processos (e um processador - talvez 2 se for dual-core ?)
mpiexec -np 5 ./hellompi
Deveria aparecer
[dago@cell100]$ mpiexec -np 4 ./hellompi Sou o processo 0 de um total de 4 rodando em cell100.matrix Sou o processo 2 de um total de 4 rodando em cell100.matrix Sou o processo 1 de um total de 4 rodando em cell100.matrix Sou o processo 3 de um total de 4 rodando em cell100.matrix
onde cell100.matrix
é o nome da máquina (todas no mesmo nó ainda). Para rodar em mais máquinas, primeiro desligue o mpd
[usuario]$ mpdallexit
Configuring Worker Nodes to use Root's MPD Daemon
Starting up an mpd daemon for each user each time they log in is doable, but that requires an extra step of complexity for your users to understand. Plus, they'll need to remember to start up daemons on multiple machines when they run programs that require multiple processors (not just multiple processes).
An easier paradigm to follow is to start a single mpd daemon on each of the worker nodes and have users' programs attach to that daemon. Continue on to MPICH: Starting a Global MPD Ring to implement this.