определимся сразу:
- я не спец в вопросе, немного ковырял около года назад
- физический лайер между процами - индвидуально выбирается
в зависимости от топологии грида, типа используемых узлов (т.е.
связанные в сетку компы, или неким hipertransport'ом 10 процов)
в общем это отд. тема
- и наконец - как же организовать распределенные вычисления
(т.е. написать прогу)
про последний пунктик: есть мысль, что не надо изобретать велосипед:
пользуемся тем что понапридумывали другие (Open MPI, http://www.open-mpi.org/).
т.е:
1) железо (плата с несколькими процами / либо несколько плат + физический интерфейс для межпроцессорного обмена) ->
2) ось (желательно порт с линукса, т.к. вроде Open MPI заточен под
кластеры на линуксе - меньше возни с опртированием на наши процы)
3) MPI (то бишь - не обязательно использовать Open MPI) - высокоуровневый интерфейс для написания распределенных программ
4) + много инфы (и на русском тоже) если хорошо погуглить
ключи MPI, распределенные вычисления
http://www.mpi-forum.org/
http://www.lam-mpi.org/
http://www-unix.mcs.anl.gov/mpi/
+ могу выслать на русском - кое что есть у меня
з.ы. ковырялся два дня, написал, а потом запускал/отлаживал несколько экземпляров проги на одном компе - в режиме эмуляции грида - попросили помочь с курсовой -))
з.з.ы. еще вот что: смысл написания проги (или модуля) осуществляющей распределенное вычисление - это написать одну прогу
экземпляры которой запускаются на физически различных процах, после запуска выделенный проц производит арбитраж - какой объем работы выделить тому или иному запущенному экземпляру распределенной проги
и собирает инфу от уже отработавших задач
з.з.з.ы. соприкоснувшись поймешь - огромное поле, шагать не перешагать, но кустарно подходить к распределенным вычислениям не советую - можно потерять кучу времени и сил, а в итоге наткнуться на грабли