Предварительный отчёт, планируется публикация статьи.
Традиционные модели программирования для высокопроизводительных вычислительных систем (HPC), основанные на передаче сообщений, сталкиваются с трудностями синхронизации, что ограничивает их возможности. Модель удаленного доступа к памяти (RMA), также известная как односторонняя коммуникация в MPI, позволяет процессу непосредственно читать из памяти другого процесса или записывать в нее, обходя обмен сообщениями. Сосредоточившись на коллективных операциях, RMA имеет потенциал снижать затраты на синхронизацию, позволяя одновременный доступ к общим структурам данных. Однако существующие стандарты односторонней коммуникации MPI предлагают последовательный интерфейс, который характеризуется низкой эффективностью. Для устранения этой проблемы мы предлагаем разработку алгоритма для коллективных (параллелизуемых) операций в парадигме RMA. В нашем исследовании мы основным образом рассматриваем выгоды коллективных операций на примере алгоритма broadcast. Наши реализации превосходят традиционные методы и демонстрируют перспективный потенциал этой техники, как показывают первоначальные результаты производительности.