Комплексное моделирование и оптимизация ускорительных систем на графическом процессоре (GPU)
Обычно имеют место быть две ситуации. Первая — когда требуется спроектировать циклотрон, как говориться с «нуля». Вторая — когда такая установка уже существует, и требуется сделать оптимизацию ее структуры и параметров для повышения, например, интенсивности пучка или расширения диапазона ускоряемых ионов. Может показаться, что первая ситуация существенно сложнее второй. Однако, на практике… Читать ещё >
Содержание
- ГЛАВА 1. МЕТОД МАССИВНО ПАРАЛЛЕЛЬНОГО 80 ПРОГРАММИРОВАНИЯ НА ГРАФИЧЕСКИХ ПРОЦЕССОРАХ (GPU)
- 1. 1. Архитектура графических процессоров (GPU)
- 1. 1. 1. Введение: особенности GPU архитектуры
- 1. 1. 2. Архитектура GPU: Tesla 8, Tesla 10, Tesla 20 (Fermi)
- 1. 2. Программная модель CUDA
- 1. 2. 1. Введение: гибридная модель программного кода
- 1. 2. 2. Понятие потока, блока, сети блоков
- 1. 2. 3. Функция-ядро, как параллельный код на GPU
- 1. 2. 4. Особенности работы с различными типами памяти
- 1. 2. 5. Компиляция программы на CUDA
- 1. 3. Метод массивно-параллельного программирования на GPU в задачах динамики пучка с использованием среды CUDA
- 1. 3. 1. Проблема оценки потерь пучка
- 1. 3. 2. Проблема учета эффекта пространственного заряда
- 1. 3. 3. Задача трассировки пучка
- 1. 3. 4. Расчет электромагнитных полей
- 1. 1. Архитектура графических процессоров (GPU)
- 2. 1. Проблема поиска начальных условий для центрированной траектории
- 2. 2. Оптимизация параметров инфлектора
- 2. 3. Оптимизация краевого поля инфлектора
- 2. 4. Оптимизация центральной области на основе метода «обратной трассировки» пучка
- 3. 1. Модельная DV — постановка задачи учета эффекта пространственного заряда
- 3. 1. 1. Постановка задачи
- 3. 1. 2. Решение в системе центра масс
- 3. 1. 3. Построение решения
- 3. 1. 4. Задача однородно заряженного шара
- 3. 2. Численное решение DV — задачи
- 3. 2. 1. Порядок аппроксимации решения
- 3. 2. 2. Задача с первым порядком аппроксимации по времени
- 3. 2. 3. Задача со вторым порядком аппроксимации по времени
- 3. 3. pV — постановка задачи учета пространственного заряда
- 3. 3. 1. Постановка задачи
- 3. 3. 2. Построение решения
- 3. 4. Численное решение pV — задачи
- 3. 4. 1. Разностная схема
- 3. 4. 2. Пример численного решения модельной задачи
- 4. 1. Оценка вклада поля магнитных элементов в секторе S12установки ATLAS, CERN (Женева, Швейцария)
- 4. 2. Расчет электромагнитных полей в установке AVF RIKEN циклотрон, RIKEN, Япония
- 4. 2. 1. Линия инжекции: соленоиды, банчер, инфлектор
- 4. 2. 2. Электрическое поле центральной области
- 4. 3. Магнитные системы установок ОИЯИ, Дубна, Россия
- 4. 3. 1. Спектрометрический магнит SP-40 (установка NIS)
- 4. 3. 2. воротный магнит SP-57 (установка MARUSYA)
- 5. 1. Программа CBDA
- 5. 1. 1. Структура программы
- 5. 1. 2. Тесты, примеры
- 5. 2. Параллельная версия CBDA
- 5. 2. 1. Использование ОрепМР
- 5. 2. 2. Гибридный подход CPU+GPU на основе CUDA
- 6. 1. RIKEN AVF циклотрон, RIKEN, Япония
- 6. 2. VIN С Y циклотрон, Белград, Сербия
- 6. 3. Таможенный циклотрон, Лос-Аламос, США
- 6. 4. Проект медицинского синхротрона ОИЯИ, Дубна, Россия
Комплексное моделирование и оптимизация ускорительных систем на графическом процессоре (GPU) (реферат, курсовая, диплом, контрольная)
Современные научные исследования невозможно представить без использования вычислительной техники. Простейшей вычислительной машиной является персональный компьютер, обладающий одним центральным процессором. Вершиной является высокопроизводительные суперкомпьютерные кластеры, состоящие порой из десятков тысяч центральных процессоров.
Основной проблемой использования кластеров является большая потребляемая мощность и занимаемая ими обширная площадь, включающая в себя не только место для самого кластера, но и место для системы охлаждения. Поэтому в настоящее время широкое распространение стали получать гибридные вычислительные архитектуры. Например, на данный момент шестью самыми мощными суперкомпьютерами в мире являются [1]:
• Tianhe — 1 A, Tianjin National Supercomputing Center, Китай.
• Jaguar, Oak Ridge National Lab, США.
• Nebulae, National Supercomputing Center Shenzhen, Китай.
• Tsubame 2.0, Tokyo Institute of Technology, Япония.
• Hopper II, NRSC, США.
• Тега 100, Essonne, Франция.
ЭООО г В.
Рис. 1 Производительность и потребляемая мощность шести самых мощных суперкомпьютеров в мире на 2011 год.
На графике левый сдвоенный столбик соответствует производительности суперкомпьютера, а правый — потребляемой мощности. На фотографии рис. 1 показан общий вид суперкомпьютерного кластера.
Три из приведенных на рис. 1 кластера: Tianhe — 1А, Nebulae, Tsubame 2.0, — имеют гибридную архитектуру. Гибридная архитектура включает в себя наряду с классическими центральными процессорами CPU (Central Processor Unit) современные графические процессоры GPU (Graphics Processor Unit), позволяющие производить массивно-параллельные вычисления.
Первоначально графический процессор (GPU) предназначался для работы с видеоизображением. Основной его функцией было преобразование графического образа, хранящегося в памяти компьютера, в форму, предназначенную для дальнейшего вывода на экран монитора. При этом основную часть вычислений связанных с подготовкой изображения к выводу на экран выполнял центральный процессор (CPU), после чего данные передавались на видеокарту, на которой и расположен графический процессор (GPU).
Однако, с развитием компьютерной графики, стало целесообразно разгрузить центральный процессор от «графических вычислений» и передать эту обязанность видеокарте. С этой целью на видеокарте появилось специальное вычислительное устройство (процессор), занимающееся «графическими вычислениями». Так появились первые графические ускорители.
Графические ускорители очень быстро эволюционировали в своем развитии. В результате они на многих простейших операциях стали существенно опережать центральный процессор (CPU). Такая высокая производительность достигалась благодаря умению графического ускорителя параллельно производить огромное число простейших операций. В какой то момент стало ясно, что видеокарте можно доверять вычисления не только связанные с графикой, но и задачи чисто вычислительного характера. Так появилось понятие графического процессора GPU (Graphics Processing Unit).
Понятие GPU впервые было введено компанией NVIDIA, как обозначение того факта, что графический ускоритель, первоначально используемый только для ускорения трехмерной графики, стал мощным программируемым устройством (процессором), позволяющим решать широкий круг задач не обязательно связанных с графикой.
Параллельные вычисления на GPU основываются на принципе, состоящем в переносе «центра тяжести» вычислений с центрального процессора CPU на графический процессор GPU. Изначально GPU процессоры были ориентированны на работу с графикой, что привело к большому числу ядер на кристалле. Ядра GPU имеют меньшую мощность, чем ядра CPU. Однако, количество ядер в одном GPU на порядки превышает количество ядер в CPU. Например, GPU NVIDIA Tesla С2070 имеет 512 ядер, в то время, как CPU Intel Xeon имеет 6 ядер.
Принцип, по которому работает CPU — это максимально быстро сделать одну операцию. Графический процессор идет от обратного, GPU пытается параллельно сделать максимально много операций, пусть даже каждая из них будет выполняться не так быстро, как на CPU. В этом и состоит основная разница между GPU и CPU.
Вследствие такой особенности и распределение памяти у CPU и GPU выглядит по-разному. На CPU существенную часть кристалла занимает память (cache), необходимая для обеспечения непрерывной работы ядер процессора, т.к. ядра работают намного быстрее, чем происходит доступ в глобальную память (RAM). На графическом процессоре, большую часть кристалла занимают именно вычислительные ядра. Поэтому основным искусством оптимизации программного кода на GPU является умение сбалансировать загрузку вычислительных ядер со временем обращения в память видеокарты.
За последние годы (2006;2011) графические процессоры компании NVIDIA очень быстро эволюционировали по пиковой производительности вычислений и по пиковой пропускной способности памяти (см. рис.2).
Рис. 2 Развитие GPU архитектуры.
Такой рост сопровождался появлением новых архитектур GPU: Tesla 8, Tesla 10, Tesla 20 (Fermi).
Вычислительные модули Tesla делятся на две категории: Tesla С и Tesla S. Маркировка «С"-соответствует одной видеокарте (Card), которая содержит один GPU, маркировка «8"-означает серверный (Server) вариант, такой вычислительный модуль содержит 4 видеокарты, т. е. суммарно 4 графических процессора (GPU). На рис. 3 показана модель Tesla С 1060 и Tesla S 1070.
Вычислительный модуль Tesla С устанавливается в обычный персональный компьютер в PCI-E разъем, a Tesla S предназначен для установки в серверную стойку, поэтому имеет форм фактор 1U.
Рис. 3 Вычислительные модули Tesla С1060 и Tesla SI070.
Рассмотрим архитектуру GPU подробнее. На рис. 4 приведена архитектура Tesla 10. Основным вычислителем на GPU является потоковый мультипроцессор (SM: Streaming Multi-processor). На Tesla 10 количество SM -30 штук. Мультипроцессоры (SM) объединены в блоки по три SM, которые называются ТРС (Texture Processor Cluster). Всего на Tesla 10−10 таких ТРС.
Каждый SM содержит: 8 скалярных ядер (SP), разделяемую память (shared memory), блок для работы с двойной точностью (DP: Double Precision), два блока для работы со специальными функциями (sin, cos, sqrt, 1/х и т. д.) (SFU: Special Function Unit), блок для работы с константной памятью (constant memory), регистровый файл (register file) и доступ к текстурным блокам (Texture unit). Вне SM есть доступ к глобальной памяти.
Рис. 4 Архитектура Tesla 10 (global memory), а также через PCI-E шину можно обращаться к памяти расположенной на материнской плате.
Архитектура Tesla 8 похожа на Tesla 10, но имеет ряд отличий:
• на SM отсутствует блок для работы с двойной точностью (DP);
• меньший размер регистрового файла (8 192 -32 битных регистров, вместо 16 384 на Tesla 10);
• в одном ТРС — 2 SM;
• количество ТРС — 8;
• отличия, связанные с СС (Compute Capability).
В результате, на Tesla 8 находится 8(SP)*2(SM)*8(TPC)=128 вычислительных ядер, а на Tesla 10 — 8(SP)*3(SM)*10(TPC)=240 вычислительных ядер.
Umt олпСяс Ги?
Рис. 5 Архитектура Tesla 20 (Fermi).
На рис. 5 показана архитектура Tesla 20 на базе GPU Fermi. Каждый SM содержит 32 вычислительных ядра. Группа из четырех SM образует GPC. Количество GPC — 4, что дает 16 мультипроцессоров SM. Общее количество вычислительных ядер на GPU (Fermi) — 32(SP)*4(SM)*4(GPC)=512. В отличие от Tesla 10 архитектура Tesla 20 имеет ряд отличий: • все вычислительные ядра работают с двойной точностью;
• имеется два планировщика вычислительных потоков (на предыдущей архитектуре Tesla 10 только один);
• добавлен новый кэш (LI cache) первого уровня LI ;
• размер разделяемой памяти (shared memory) вместе с LI кэшем (LI cache) может варьироваться (16/48 КБ);
• появилась возможность одновременного асинхронного копирования данных с GPU на CPU и CPU на GPU;
• есть встроенный планировщик запуска задач на GPU;
• увеличен размер регистрового файла (32 768 — 32 битных регистра вместо 16 384 на Tesla 10 и 8 192 на Tesla 8).
• имеется поддержка операции коррекции ошибок памяти (ЕСС: Error-Correcting Code);
• увеличен размер L2 кэша (L2 cache) до 768 КБ для доступа в глобальную память видеокарты (global memory);
• ~2 раза увеличена полоса пропускная памяти (GDDR5);
• адресное пространство памяти расширено до 1 ТВ;
• увеличен размер глобальной памяти (global memory) до 6 Гб (на Tesla 10−4 ГБ).
В 2012 году компанией NVIDIA планируется выпуск следующей архитектуры Kepler, а далее Maxwell.
Отметим, что на GPU количество одновременно работающих вычислительных потоков может существенно превышать количество вычислительных ядер.
Например, на Tesla С1060 количество вычислительных ядер 240, а для полной вычислительной загрузки ей требуется около 30 000 вычислительных потоков.
Такая ситуация возможна благодаря встроенному планировщику потоков (scheduler). Если какое то вычислительное ядро «простаивает» из-за ожидания данных из памяти для вычислительного потока с номером «i»,.
10 планировщик может назначить данному вычислительному ядру обработку потока с номером «j». Такое перераспределение загрузки производится на «железном» уровне, упрощая работу программиста.
Для работы с GPU требуется специальный API (Application Programming Interface) от степени его проработки и удобства зависит перспективность использования GPU для высокопроизводительных вычислений.
На сегодняшний день на рынке существуют два основных производителя GPU: AMD и NVIDIA. Однако, только у NVIDIA на сегодняшний день имеются решения Tesla для высокопроизводительных кластерных систем.
В 2006 г. компанией NVIDIA была разработана программно-аппаратная модель CUD A (Compute Unified Device Architecture). Программно-аппаратный стек CUDA формально можно представить в виде таблицы, изображенной на рис. 6.
GPU Computing Applications — 1.
Libraries and Middlewai.
IS.PIck C, RA" D magma cuSPARSE «» дьмд.
С++ С Fortran Java. Python rD, rect, Wrappers Compute OpenCL.
NVIDIA GPU 1 j CUDA Parallel Computing Architecture.
Рис. 6 Архитектура CUD А.
На самом «нижнем» уровне находится сам процессор GPU с необходимой для его работы программой-драйвером. «Выше» идут различные среды программирования (С, С++, Fortran, Java, Direct Compute,.
OpenCL и другие), с помощью которых можно писать приложения на GPU. Дальше идут готовые библиотеки (cuFFT, cuBLAS, cuRAND, cuSPARS и другие), которыми можно пользоваться в своих собственных программах, не вдаваясь в тонкости работы GPU. Последним уровнем являются собственные приложения, которые пишет пользователь, при этом не исключена возможность использования готовых библиотечных функций.
Программа, написанная под GPU, имеет гибридную структуру (см. рис.7), то есть она состоит как из последовательных блоков кода, выполняемых на центральном процессоре (CPU), так и из параллельных блоков кода, выполняемых на графическом процессоре (GPU). Вызов параллельных блоков производится «функцией-ядром» (kernel function).
Последовательный > код <
Параллельное ядро, А KernelA"< nBlk, nTid >"(args);
Последовательный код.
Параллельное ядро В KernelB"< nBlk, nTid >"(args);
Рис. 7 Гибридная структура кода.
При программировании на GPU используются понятия «host» и «device». Идентификатором «host» отмечается все, что относится к х86 архитектуре: переменные, память, функции и т. д. Идентификатором «device» помечается все, что относится к GPU: переменные, память, функции, и т. д.
Параллельная часть программного кода выполняется на GPU по средствам огромного (порядка 30 ООО) количества вычислительных потоков/нитей (threads). Потоки группируются в блоки, как показано на рис. 7. Блоки группируются в сеть блоков. Блоки выполняются независимо друг от друга. Нити (threads) внутри блока могут быть синхронизованы. Блок целиком выполняется на одном потоковом мультипроцессоре SM (Streaming Multi-processor). На одном мультипроцессоре (SM) одновременно может выполняться несколько блоков.
В зависимости от мощности видеокарты на ней распложено разное число мультипроцессоров SM. При переносе программного кода с одной видеокарты «А» (малой вычислительной мощности, малым число SM) на другою «В» (большей вычислительной мощности, большим числом SM) нет необходимости в принципиальном переписывании программного кода (см. рис.8).
Устройство А.
SM SM.
1,———ч Блок ЛИ ri /г J.
Блок Блок швШШЯШШШШШШ т Т 1|.
Сетка блоков.
Блок 0 Блок 1.
БЛОК 2 Блок 3.
Блок 4 Блок 5.
Блок в 3 Блок 7.
Hi.
Устройство В SM SM SM SM.
— 4. и.
ГБлок 1 Блок к г Блок 1 3.
Блок I 4 Блок 5 J Блок, А 1 J.
Рис. 8 Запуск блоков на различных GPU.
Как видно из рис. 8 более мощная видеокарта «В» выполнит тот же самый код, только за меньшее время, что показывает хорошую масштабируемость (scaling factor) архитектуры графических процессоров (GPU).
Разбиение вычислительных потоков на блоки открывает дополнительные возможности в распараллеливании алгоритма. Например, каждая нить в блоке может делать параллельно свою задачу, а нити из другого блока делать другую задачу. При этом нити одного блока могут использовать совместно свою часть разделяемой памяти (shared memory). В результате, возможен параллелизм по нитям внутри блока, и по блокам внутри сети (grid) блоков.
С другой стороны разбиение на блоки необходимо из-за ограниченного количества одновременно запущенных на GPU вычислительных потоков.
Каждая нить (thread) на GPU имеет свой идентификационный номер, который зависит от номера внутри блока (threadldx), от номера блока в котором находится нить (blockldx), и от размера блока (DimBlock). threadID = threadldx. х + blockldx. х * DimBlock. х (1).
Переменные threadldx, blockldx, DimBlock являются векторными величинами, и в общем случае характеризуются тремя индексами, например, threadldx. x, threadldx. y, threadldx.z. Многомерная структура сети блоков и нитей полезна при работе с многомерными данными, например, при работе с матрицами.
Важным моментом при программировании на графическом процессоре (GPU) является сбалансированность вычислительной нагрузки и времени обращения в память видеокарты. Поэтому особое внимание уделяется методам работы с различными типами памяти CUDA. В таблице 1 приведены основные типа памяти видеокарты.
Таблица 1. Типы памяти в CUD А.
Тип памяти Доступ Уровень выделения Скорость работы.
Register (регистровая) R/W Per-thread Высокая (on-chip).
Local (локальная) R/W Per-thread Низкая (DRAM).
Shared (разделяемая) R/W Per-block Высокая (on-chip).
Global (глобальная) R/W Per-grid Низкая (DRAM).
Constant (константная) R/0 Per-grid Высокая (LI cache).
Texture (текстурная) R/0 Per-grid Высокая (LI cache).
Опишем кратко основные особенности приведенных типов памяти. Регистры.
Регистры самый быстрый тип памяти, доступны для чтения и для записи. У каждой нити на GPU имеется в распоряжении свой набор 32 битовых регистров, который не доступен соседним нитям. При инициализации локальных переменных в «функции-ядре» они записываются в регистровую память, поэтому слишком большое количество локальных переменных может привести к нехватке регистров, доступных на одну нить. В этом случае часть локальных переменных будет сохранена в локальной памяти.
Локальная память.
Локальная память расположена в DRAM GPU, поэтому доступ к ней медленный. У каждой нити своя область локальной памяти, доступная ей на чтение и на запись. Непосредственного доступа у пользователя к локальной памяти нет, работа с ней идет на уровне системы. Разделяемая память.
Разделяемая память самый быстрый после регистров тип памяти. Время доступа приблизительно 4−5 тактов процессора GPU. Доступна для чтения и для записи нитям одного блока. На одном SM имеется 16 КБ (Tesla 8, 10) или.
16/48 КБ (Tesla 20) разделяемой памяти. Пользователь может явно выделить необходимый размер разделяемой памяти. При работе с разделяемой памятью часто используется барьерная синхронизация syncthreadsQ нитей.
Использование разделяемой памяти имеет смысл, когда идет многократное считывание или запись одних и тех же данных. Глобальная память.
Глобальная память имеет самый большой размер на видеокарте (6 ГБ на Tesla 20), однако обладает большим временем доступа (400−600 тактов). В CUDA существуют команды для копирования данных из памяти «host» в глобальную память видеокарты «device», при этом есть возможность асинхронного копирования данных. В силу медленности работы глобальной памяти важным понятием является объединение запросов при доступе в глобальную память («coalescing»). Считывание и запись в глобальную память происходит блоками по 16 слов (Tesla 8,10) или по 32 слова (Tesla 20). При этом существуют различные правила для считывания/записи данных, зависящие от параметра СС (Compute Capability) видеокарты. Константная память.
Еще одним типом памяти на GPU является константная память. Её объем составляет 64Kb. Она доступна всем нитям сети только на чтение, а на запись она доступна только с «host». Преимуществом константной памяти является наличие кэша, «попадание» в который может сократить число обращений. В константной памяти имеет смысл хранить переменные, которые в процессе вычисления «функции-ядра» не меняются. Текстурная память.
Текстурные блоки удобно использовать при хаотичном доступе в память. В этом случае за счет «попадания» в текстурный кэш, можно сократить число обращений. Иногда текстуру удобно использовать, если требуется дополнительна предобработка данных. Примером может служить режим линейной фильтрации, дающий билинейную интерполяцию данных.
На рис. 9 показана общая схема доступа CUDA нити к различным типам памяти на GPU.
Рис. 8 Доступ к памяти на GPU.
В целом описанные выше гибридные архитектуры могут на порядок уменьшать энергопотребление, размеры и стоимость вычислительного оборудования при одинаковой вычислительной производительности.
Привлечение гибридных архитектур делает возможным иметь персональный суперкомпьютер, сравнимый с кластером с пиковой теоретической производительностью более 2 TFlops (Floating point OPerations per Second — количество операций с плавающей запятой в секунду, выполняемое данной вычислительной системой), в то время как обычный персональный компьютер имеет пиковую теоретическую производительность порядка 20 GFlops. То есть пиковая теоретическая производительность персонального суперкомпьютера на базе гибридной архитектуры на два порядка выше, чем у компьютера стандартной архитектуры, что является весьма актуальным в моделировании реальных задач.
Одной из актуальных и вычислительно ёмких задач математического моделирования является проблема комплексной оптимизации динамики пучка в циклотроне. На сегодняшний день благодаря своим характеристикам, таким как низкая стоимость, надежность, простота в эксплуатации циклотрон получил широкое распространение в различных сферах деятельности человека, как в фундаментальных исследованиях, так и при решении широкого круга прикладных задач.
Актуальным прикладным направлением использования циклотрона является реализация межгосударственных программ борьбы с терроризмом. В частности, использование циклотрона в решении задачи по обнаружению взрывчатых веществ в аэропортах, вокзалах, других общественных местах при досмотре грузов, багажа и оборудования. Этой актуальной проблеме посвящаются международные форумы, такие, как состоявшаяся в Швейцарии Гордонская конференция [2], и другие. Ведутся обширные разработки по совершенствованию технических характеристик процесса обнаружения взрывчатых веществ.
Другой актуальной областью применения циклотрона служит медицинское направление: производство медицинских радиоизотопов, а так же протонная и углеродная терапия. Одним из ведущих производителей циклотронов медицинского направления на мировом рынке является фирма IBA (Бельгия).
Следует отметить, что и современные исследования в области ядерной физики также проводятся с использованием циклотронных установок [3]. Уникальным примером такого применения может быть создание каскада циклотронов. В конце декабря 2006 года ученые The Nishina Center for Accelerator-Based Science (RIKEN, Япония) достигли успеха, применяя каскад циклотронов, в ускорении пучка из алюминия до 70% от скорости света. Был использован ускоритель тяжелых ионов недавно запущенной в эксплуатацию фабрики по производству пучков радиоактивных изотопов (RIBF) [4−27].
В связи с широким внедрением циклотрона в науке и технике возникает ряд актуальных вопросов, связанных с проектированием, созданием и эксплуатацией таких установок. Так как область применения циклотрона велика, то возникает проблема создания циклотронов с различными параметрами, которые определяются конкретной задачей, где планируется его использование.
Дальнейшее развитие циклотронной техники требует более строго и математически выверенного описания его параметров с учетом особенностей конкретной области применимости.
Рассмотрим подробнее проблему комплексной оптимизации динамики пучка в циклотроне.
Обычно имеют место быть две ситуации. Первая — когда требуется спроектировать циклотрон, как говориться с «нуля». Вторая — когда такая установка уже существует, и требуется сделать оптимизацию ее структуры и параметров для повышения, например, интенсивности пучка или расширения диапазона ускоряемых ионов. Может показаться, что первая ситуация существенно сложнее второй. Однако, на практике, зачастую вторая ситуация является существенно более трудоемкой. Связанно это с тем, что любая оптимизация требует очень высокой детализации компьютерной модели циклотрона, т. е. учета «поправок высшего порядка». Такой подход налагает повышенные требования на программу, по которой производится численное моделирование, а так же на эффективные математические и вычислительные методы, которые должны быть использованы. Конечно, все это не может быть реализовано на необходимом уровне реалистичности без использования современного компьютерного оборудования.
Рассмотрим структуру циклотрона и физические принципы лежащие в основе его работы. На рис. 9 показана компьютерная модель такой установки. Элементами этой модели являются:
• линия инжекции;
• инфлектор;
• укоряющая система;
• выводная система.
Рис. 9 Внешний вид компактного циклотрона.
Остановимся подробнее на каждом элементе. Линия инжекции предназначена для ввода пучка в циклотрон. Возможны различные конфигурации линий инжекции, на рис. 10 приведена одна из них. В начале линии инжекции стоит банчер (ЬипсЬег).
Рис. 10 Линия инжекции.
Банчер предназначен для перевода непрерывного пучка в банчированный, то есть разбитый на сгустки частиц (банчи). У банчера есть два электрода, например, сделанные в виде сетки см. рис. 11. Одна сетка находится под нулевым потенциалом, вторая под ВЧ потенциалом. ВЧ потенциал меняется, например, по закону:
К (6>) = -ит (б> + ^0) + ^8тл-(2(^ + 6>0)) +8т (з (6> + 6>0)) 6>0=50°.
3 9).
График такого потенциала приведен на рис. 12. Проходя через банчер, частицы пучка получают энергетический разброс, который зависит от того, в какой момент времени та или иная частица попала в зазор между электродами банчера. В результате некоторые частицы получат ускорение, а некоторые замедлятся. Такой разброс по энергиям через какое то время приведет к тому, что частицы сгруппируются в сгустки (банчи), так как те частицы, которые получили ускорение, догонят тех, которые замедлились.
Рис. 11 Общий вид банчера.
В результате, варьируя амплитуду напряжения на банчере, можно менять положение продольного фокуса пучка, то есть точку, где банч имеет.
21 наименьший продольный размер. Для поперечной фокусировки пучка используются магнитные линзы. В данном случае на рис. 10 показаны две глэйзеровские линзы (Glaser lens).
2т———-jf 0 -5 <0, — '" 115 110 213 2 '0 30 ЗЮ s х.
— 2-J———;
РЬве, [?eg].
Рис. 12 Вид ВЧ потенциала на банчере.
После прохождения линии инжекции пучок подходит к спиральному инфлектору (spiral inflector) см. рис. 13. Инфлектор предназначен для перевода движения пучка из аксиального направления в горизонтальное направление. Инфлектор состоит из двух электродов находящихся под противоположными стационарными потенциалами.
Рис. 13 Внешний вид инфлектора.
0 1 5 ! 15 1 10 2 а г >0 3 V.
РЬ"и, [dec].
На рис. 13 электроды обозначены красным и синим цветом. Так же на входе в инфлектор присутствует электрод, находящийся под нулевым потенциалом (см. рис. 13 черный цвет). Такой электрод («Земля») используется для компенсации краевых полей инфлектора, также на нем может крепиться баффер, необходимый для центрирования пучка при входе в инфлектор. По сути инфлектор это обычный конденсатор, имеющий спиральную изогнутость, поэтому такой тип инфлектора называют спиральным. Изогнутость инфлектора обусловлена тем, что в области, где он находится, существует аксиальное магнитное поле. В результате, как только частицы в пучке получают поперечную составляющую скорости из-за электродов инфлектора, так сразу же на частицы начинает действовать сила Лоренца, вызванная наличием аксиального магнитного поля. Данный факт приводит к необходимости введения спиральной формы электродов инфлектора.
После прохождения инфлектора пучок попадает в ускоряющую систему циклотрона. На рис. 14 показан приблизительный вид центральной области циклотрона.
Рис. 14 Центральная область циклотрона.
Черным цветом на рис. 14 показан корпус инфлектора, который находится под нулевым потенциалом. Зеленным цветом обозначены анти-дуанты (anti-Dee) ускоряющей системы, которые тоже находятся под нулевым потенциалом. Медным цветом изображены сами дуанты (Dee), находящиеся под ВЧ потенциалом. Щели между дуантом и анти-дуантом образуют ускоряющие зазоры (см. рис.14) Зависимость ВЧ потенциала от времени (или ВЧ фазы) имеет в общем случае синусоидальную форму, за исключением ускоряющих систем с flat-top. В случае flat-top к ВЧ профилю добавляется еще дополнительные гармоники, дающие более плоский профиль ВЧ напряжения.
Так как пучок разбит на сгустки (банчи), то для успешного ускорения необходимо, чтобы банчи приходили на ускоряющие зазоры в нужные моменты времени (или фазу ВЧ).
Рис. 15 Ускорение пучка в циклотроне.
На рис. 15 показан процесс ускорения пучка от центральной области до выводного радиуса. Как вариант, вывод пучка может производиться электростатическим дефлектором (ЭСД) На рис. 16 на конечном радиусе приведено положение дефлектора, а также приведен его вид на входе.
Рис. 16 Положение и вид ЭСД.
ЭСД состоит из двух электродов — один под нулевым потенциалом (на рис. 16 синий цвет) второй под некоторым стационарным потенциалом (рЕЗО, который зависит от энергии пучка и величины магнитного поля на конечном радиусе, и конечно, от величины зазора между электродами.
Одной из основных задач в оптимизации циклотрона является оптимизация центральной области (см. рис. 14).
Под оптимизацией понимается выбор геометрической структуры центральной области (формы электродов дуантов, параметров инфлектора, параметров линии инжекции и начальных параметров пучка) для получения на выходе из циклотрона (входе в дефлектор) пучка с наибольшей интенсивностью и наперед заданным эмиттансом.
Для численного моделирования описанной системы, требуется задание трехмерной геометрической структуры элементов установки, вычисление трехмерных магнитных и электрических карт полей.
Математическая постановка задачи.
Опишем математический аппарат, используемый при моделировании динамики пучка в циклотроне. Начнем с описания модели пучка.
Существуют несколько моделей пучка, и каждая такая модель приводит к соответствующей математической постановке задачи. Поэтому рассмотрим такие модели последовательно.
Физически пучок состоит из большого количества частиц, это число частиц может достигать величины порядка 1015. Конечно, такое количество частиц (будем называть такие частицы микрочастицами) невозможно использовать при реальном моделировании на компьютере. Заметим, что для хранения в памяти компьютера 3-х мерных координат частиц в этом случае потребуется:
1015 — Ъ-АБайт = 12 ООО ТЕ, здесь считается, что координата имеет одинарную точность (float) и требует соответственно в памяти 4 Байта. Понятно, что 12 ООО ТБ оперативной памяти на сегодняшний день — технически не доступная величина. Заметим, что это всего лишь координаты частиц, а при вычислении необходимо использовать для каждой частицы и вектор скорости, а также множество вспомогательных данных, таких как карты электрических и магнитных полей, параметры геометрической структуры установки и различные параметры установки. Также стоит отметить, что при использовании двойной точности (double) это приведет к дополнительному удвоению размера требуемой памяти. Для выхода из такой ситуации были разработаны различные модели, описываемые ниже.
Модель макро частиц (Метод крупных частиц).
Одним из подходов в описании пучка явилось представление его в виде, приемлемом для компьютерного моделирования числа макрочастиц [28−50]. Каждая макрочастица является, по сути, объединением некоего количества микрочастиц. Так, например, если в исходном физическом пучке число микрочастиц составляет 1015, а при моделировании такому пучку ставится в соответствие пучок из 106 макрочастиц, то из этого следует, что каждая макрочастица содержит 109 микрочастиц. И заряд и масса такой макрочастицы равны 109 шт|СГ0 и 109 ят1СГ0 соответственно, где шт1СГ0 и цт1сго масса и заряд микрочастицы. micro.
В результате пучок обладает набором следующих параметров: r^p^t), i = .N, где N — число макрочастиц, г1 и Д — вектор координат и импульса Iмакрочастицы в момент времени X. Отметим, что г1 и Д в свою очередь могут быть определены, как усредненные значения по всем микрочастицам, содержащимся в 1 — макрочастице.
Далее встает вопрос об уравнениях движения, которыми описывается движение таких макрочастиц.
Уравнения движения макрочастиц пучка записываются в виде: где ^ - сила действующая на I — макрочастицу. Такая величина представима в виде суперпозиции следующих сил: где и Д^Д?-) — внешние электрические и магнитные поля, действующие на макрочастицы пучка. Распределение таких полей считается известным. Отметим, что внешнее электрическое поле Еех1 в отличие от внешнего магнитного поля Вех1(?^, помимо пространственной координатной.
1).
2) зависимости, еще имеет временную зависимость. Поле Е5 — является электрическим полем, созданным системой зарядов макрочастиц. Такое поле не задано и требует своего определения в каждый момент времени. Связано это с тем, что частицы в каждый момент времени меняют свое положение, соответственно меняется распределение электрического поля ЁДт-,?).
Вопрос о вычислении Е^г^ нетривиален, и для его решения используются различные подходы. Такие подходы объединены под общим названием задачи об учете эффекта пространственного заряда [52−203]. Отметим, что в рассматриваемых в данной работе задачах, предполагалось, что собственное магнитное поле пучка пренебрежимо мало по сравнению с внешним магнитным полем Вех1 .
Для решения уравнений движения (1) необходимо дополнить их начальными и краевыми условиями. Одним из вариантов таких условий.
— 4°) является знание начальных координат г у и скоростей V, — макрочастиц в пучке. Такое предположение дает стандартное условие Коши:
Другим, часто встречающимся вариантом, является знание распределения макрочастиц «по ВЧ фазе». Такой подход используется в случаях, когда пучок начинает постепенно выходить из некоторой щели источника или известно, что каждая 'Т' макрочастица пучка пересекла некую поверхность в некоторый свой момент времени tl. Математически такое начальное условие выглядит следующим образом:
3) к.
4).
Получается, что для каждой макрочастицы заданно еще время в момент,.
0) которого для макрочастицы известно ее положение г у и вектор скорости у^. Это условие отличается от предыдущего тем, что в первом все координаты и скорости известны в один и тот же момент времени для всех макрочастиц пучка. Во втором случае координаты и скорости известны для каждой 1- макрочастицы пучка только в соответствующие ей моменты времени .
Теперь зададим «краевые условия». Кавычки для слова краевые условия, здесь употребляются в силу не полной эквивалентности, используемого в математике понятия краевого условия. Здесь под «краевыми условиями» будем понимать ограничения по координатам на положение частиц. Другими словами, существует некоторая область Ус О3, в которой ищутся координаты частиц = в каждый момент времени I. Если в результате решения уравнений движения получается, что Зу: г? V, тогда] макрочастица «выкидывается» из рассмотрения. То есть число макрочастиц, участвующих в движении пучка, уменьшается. Такие макрочастицы называются потерянными на структурных элементах установки. Следует отметить, что этот факт приводит к изменению распределения электрического поля Граница области V задает геометрию установки, тем самым определяя область, в которой может двигаться пучок. Считается, что область V задана. Следует отметить, что для задачи оптимизации центральной области циклотрона требуется как раз найти «наилучшую» область V. В такой постановке необходимо рассматривать, в некотором смысле обратную задачу, о которой будет сказано ниже. Итак, приходим к следующей постановке задачи: = д, (Ё" (г, 1) + ?, +[у, в" (?)]) г. = (5).
— I 4″) -I -(о) -(о) -I -(о).
Г’Ц = V ' У. Ц = ' Ч=о = V ' Ч=о = У' 1 где т1 — масса покоя 1- макрочастицы, асскорость света в вакууме. Как указывалось ранее, данную постановку необходимо дополнить процедурой нахождения поля ДД^). Таким образом, переходим к проблеме учета эффекта пространственного заряда.
Задача учета эффекта пространственного заряда.
Данная тема представляется актуальной, и широко исследовалась в различных работах [55,67,83,97,122,132,133,148,153,156,164]. Рассмотрим постановку задачи о поиске собственных полей пучка. Запишем систему уравнений Максвелла:
Р. 7, 1 5 ^.
6) —, го1В5 = //0 ^ + ——Д.
0 С Сл.
8 — - 1 ШЕ^ =—В. сНУВ, = 0, -= с где р — плотность заряда в пучкеЕ3- собственное электрическое поле пучка, т. е. электрическое поле, которое создает заряд пучка с плотностью рВ$ собственное магнитное поле пучка. Поле В8 — появляется вследствие движения пучка. В случае, когда все частицы покоятся плотность тока пучка — 0, а поле Е3 стационарно, то есть Вз = 0. Поэтому для корректного учета эффекта пространственного заряда необходимо в выражение для силы (2) добавить вклад от Е3 и Вв пучка, то есть.
Собственные поля могут быть найдены из уравнений (6), если к ним добавить граничные условия. Оценим влияние магнитного поля на поперечную фокусировку пучка. Для этого рассмотрим модель цилиндрического продольно однородного непрерывного пучка. Такой пучок движется вдоль оси ОЪ. В этом случае излучением электрического поля можно пренебречь. В результате уравнения (6) примут вид.
ШВ8 = //07, сИу6х = р. (8) учтем, что.
1 = ру, 3 $=-£0Уф, В3=го1А (9) где ф — скалярный потенциал собственного электрического поля пучка, а Авекторный потенциал собственного магнитного поля пучка. Скорость частиц в пучке можно представить в виде: у = Рсе2+ду (10) где предполагается, что |£у|? 0с, то есть продольная скорость во много раз больше поперечной. В этом случае можно найти распределение собственных полей:
А = Р-фёя с.
И) где.
Аф = -—.
12).
В результате сила, действующая на пучок от собственных полей, принимает вид: то есть.
Со.
Р Арсе2, Ш —фег с).
13) V, ф дф у дг.
14).
Из формулы (14) следует, что эффект собственного магнитного поля состоит в поперечной самофокусировке пучка. Выше было отмечено, что в рассматриваемых в этой работе задачах можно пренебречь влиянием собственного магнитного поля В8. Такое утверждение делается на основании того факта, что энергии пучков, которые рассматриваются в этой работе, удовлетворяют условию у2 «1.
15).
В результате, задача сводится только к отысканию собственного электрического поля Е$.
Существуют два основных способа нахождения Es. Первый это метод «частица на частицу» (РР: Particle to Particle) [80,133]. Второй — метод «частица в ячейке» (PIC: Particle In Cell) [32,33,98]. Опишем каждый по отдельности, начнем с метода «частица на частицу» .
Метод частица на частицу.
Данный подход основан на представлении электрического поля Es в виде суперпозиции полей макрочастиц, содержащихся в пучке, то есть: i.
Irt — Tj.
При вычислении по формуле (16) надо обращать внимание на величину. Если указанное значение будет очень маленьким, то можно получить сингулярность в расчете электрического поля. Для решения этой проблемы используют представление макрочастицы в виде облака с радиусом Я [133]. В случае, когда облако I — макрочастицы пересекается с облаком ] -макрочастицы поле, которое действует на I — макро частицу вычисляется по формуле.
Увеличение радиуса облака приводит к ослаблению эффекта пространственного заряда, поэтому выбор оптимального размера облака представляет отдельную тему для исследования. Стоит отметить, что сильный рост электрического поля вблизи макрочастицы приводит к необходимости использования достаточно мелкого шага интегрирования по времени уравнений движения макрочастицы (5). Вычислительная ёмкость формулы (16)-(17) порядка что приводит к значительным затратам по времени. Для уменьшения количества операций используют метод NFFT [81], что дает число операций 0[NnN).
Формулы (16)-(17) задает электрическое поле системы зарядов без учета граничных условий. Как правило, пучок движется в некотором ограниченном пространстве, что требует дополнить формулы (16)-(17) граничными условиями.
Введение
граничных условий приводит к дополнительному усложнению вычислительного процесса. Так как в этом случае помимо вычислений по формуле (16)-(17) приходится решать граничное интегральное уравнение (ГИУ) или краевую задачу для уравнения Лапласа.
Видно, что приведенный подход обладает достаточно высокой вычислительной ёмкостью, чтобы подумать о существовании других методов, основанных на более «легковесных» алгоритмах. Тем более, что указанную задачу о нахождении собственного электрического поля Es требуется решать на каждом шаге интегрирования по времени.
Метод частицы в ячейках.
PIC метод обладает рядом преимуществ по сравнению с описанным выше методом PP. В данном подходе с целью понижения вычислительных затрат по нахождению поля Es используется решение краевой задачи для уравнений Максвелла. Идея состоит в том, что размерность разностной сетки, используемой при решении краевой задачи, существенно меньше, чем число, а численный метод решения краевой задачи достаточно эффективен. Благодаря этим двум фактам удается получить выигрыш в скорости.
Опишем подробнее данный подход. Пусть имеется некое распределение макрочастиц в пространстве V. Далее выделяется некая подобласть Q, содержащая, рассматриваемый пучок, и имеющая границу Г,.
34 на которой известны краевые условия типа Дирихле или Неймана для электростатического потенциала (р. В этом случае из уравнений Максвелла (6) легко получить следующую краевую задачу: г.
18) где.
19).
Такая задача решатся на каждом шаге интегрирования по времени уравнений движения частиц. Для решения задачи (18) используются численные методы (метод конечных разностей, метод конечных элементов), то есть такие величины, как потенциал, плотность заряда, вектор электрического поля определены в узлах некоторой сетки, накинутой на область О. Такую сетку называют Эйлеровой. А положение макрочастиц, на которые действуют указанные поля, задается так называемыми Лагранжевыми координатами.
В каждый момент времени есть некоторое распределение макрочастиц. Для такого распределения можно построить функцию плотности заряда, заданную в узлах, указанной разностной сетки. Здесь существует масса тонких моментов, касающихся способа «раздачи» плотности заряда в узлы сетки. В работе [31] описываются различные алгоритмы представления облака плотности заряда макрочастицы. В зависимости от параметров облака будут меняться параметры функции плотности и, соответственно, самого электрического поля.
Метод функции распределения.
Описанное представление пучка в виде набора макрочастиц не является единственно возможным. Существует представление пучка по средством функции распределения [52,54,55,56,60,62] f (r, p, t) (20) где г — вектор координаты, р — вектор импульса, t — время. Таким образом, функция f{r, p, t) определена в некотором фазовом пространстве Q. Характеристики пучка являются моментами к-го порядка от данного распределения /(r, p, t). Например: m=f (r, p, t)d (D (21) а p (r>t) = Реп (г, 0 + q {f{r, p, t)d'p, (22).
J'(r, t) = jext (r, t) + q vf (r, p, t)d3p (23) где p — функция плотности заряда в пучке, а j — вектор-функция плотности тока заряда. Интегрирование производится по пространству импульсов. Индекс «ext» соответствует внешним источникам. Сама функция f (r, p, t) удовлетворяет уравнению Власова: где v = р/т ут ~ Л 2.
4 1 + тс).
25).
Вектор — функции Е п В задают распределения электрического и магнитного поля, действующие на распределение частиц.
Таким образом, вместо того, чтобы описывать поведение каждой частицы в отдельности, используется функция /(г, рсодержащая информацию о распределении частиц в целом. Отметим, что функции Е и В в общем случае меняются в процессе движения пучка, поэтому необходимо на каждом шаге по времени находить новые распределения электрического и магнитного поля. С этой целью уравнение (24) необходимо дополнить системой уравнений Максвелла (6). В результате, процедура решения задачи следующая:
• в начальный момент времени tй задается распределение функции /(г, р0), а также начальные распределения электромагнитных полей.
• из соотношений (22) и (23) находится плотность заряда р и плотность тока у.
• зная р и у, решается система (6) из которой находятся распределения электромагнитных полей в следующий момент времени.
• зная поля Е и В, из уравнения (24) находится функция распределения /(г, рв следующий момент времени.
Такая процедура интегрирования по времени повторяется необходимое число раз. В результате в каждый момент времени можно получать необходимую информацию о параметрах пучка. Однако на практике такой метод требует достаточно большого объема вычислительного времени.
Помимо перечисленных здесь подходов существует метод моментов [236−238], который хорошо работает при быстром оценочном дизайне установки.
Задача оптимизации центральной области циклотрона.
Как было сказано выше, одной из важных проблем моделирования циклотрона является оптимизация геометрической структуры центральной области циклотрона. На рис. 14 приведен пример центральной области циклотрона. Элементами зоны являются: инфлектор, наконечники дуантов, корпус инфлектора, посты.
Под оптимизацией понимается поиск геометрической структуры центра и параметров установки, таких как напряжение на дуанте, ВЧ фаза на ускоряющих зазорах и так далее, для получения наилучшего качества и интенсивности пучка при выходе из циклотрона. Данная проблема может в ряде случаев осложняться тем, что требуется выбрать единую геометрию центра для нескольких ускоряющих режимов. Здесь стоит отметить, что магнитное поле в такой постановке задачи, считается уже сформированным, и его модификация, если она будет необходима, не приведет к существенному нарушению изохронности поля.
Существуют различные подходы решения описанной задачи.
Первое, с чего можно начать, — это выбор параметров инфлектора. Иногда эти параметры обусловлены наличием геометрического места под него. Взяв пробные параметры, можно оценить положение центральной частицы пучка при выходе из инфлектора. Следующим шагом является подпор положений ускоряющих зазоров на первых оборотах так, чтобы дальнейший процесс ускорения проходил успешно. Поле ускоряющих зазоров без вертикальных перегородок может быть представлено в аналитическом виде [242]. Конечно, такой процесс требует многократного пересчета траектории частицы от выхода из инфлектора до конечного радиуса. Причем каждый раз надо проверять некий критерий центрирования орбиты. Также возможна ситуация, когда выбранное положение ускоряющих зазоров уже является близким к оптимальному, если бы стартовая точка положения частицы (выход из инфлектора) была бы немного смещенной или имела другой угол вылета. В этом случае необходимо немного изменить положение инфлектора или его параметры, чтобы удовлетворить таким условиям. Такой процесс требует дополнительной оптимизации, производимой параллельно с выбором положения ускоряющих зазоров.
Другой подход основан на том, что априори известны параметры частицы на конечном радиусе. Например, известно, что в центре дуанта частица имеет фазу 90° ВЧ, энергию, скорость, положение, соответствующие некоторой замкнутой равновесной орбите. В этом случае можно пустить частицу в обратном направлении. При этом будет происходит замедление частицы на ускоряющих зазорах, и частица постепенно подойдет к центральной области циклотрона. Такой подход получил название «backward tracking» [186−188,241]. Далее требуется подобрать положение ускоряющих зазоров для первых оборотов таким образом, чтобы частица точно попала на выход из инфлектора с нужными параметрами. Здесь также задача может быть комбинирована с параллельным подбором параметров инфлектора под заданную траекторию на выходе из инфлектора. В этом методе надо подбирать не только положение ускоряющих зазоров в центре, но и варьировать стартовые параметры частицы, например, энергию, положение, так как замкнутая равновесная орбита отличается от ускоренной равновесной орбиты.
Отметим, что перебирать все возможные параметры в обоих подходах задача кропотливая и является затруднительной без автоматизации. Следует так же учесть, что после выбора параметров ускоряющих зазоров и инфлектора наступит момент реализации этих элементов в реальной геометрии. В этом случае может возникнуть серьезное расхождение между тем, что предполагалось и реальным расчетом с учетом всех геометрических особенностей элементов. В результате встает вопрос о степени реалистичности или точности, аппроксимации используемых моделей.
Другим важным аспектом оптимизации геометрической конфигурации циклотрона является точность оценки потерь частиц пучка на структурных элементах установки. Во время движения пучка особенно большой интенсивности неизбежны столкновения частиц с структурными элементами установки. Данный факт приводит к потерям таких частиц. В результате плотность и форма пучка может претерпевать существенные изменения, что непосредственно влияет на интенсивность и качество пучка. Например, собственное электрическое поле пучка Ев жестко связано с функцией плотности заряда пучка (18)-(19).
Точная оценка количества потерянных частиц на каждом шаге по времени является важной задачей реалистичного моделирования динамики пучка.
Следует отметить и влияние краевых электрических полей инфлектора. Полученная по аналитической формуле центральная траектория инфлектора [202] отличается, от реально вычисленной траектории для конкретной геометрии инфлектора. Основная проблема это краевое поле инфлектора. Такое поле действует при входе и выходе из инфлектора. Здесь основным подходом в решении задачи учета краевого поля используется обрезание электродов на входе и выходе. Вопрос заключается в оптимальном размере такого обрезания. В работах [203−209] делалось обрезание на уровне половины зазора между пластинами инфлектора, однако, эта величина не всегда оптимальна.
В работе [211] показан вариант дополнительной фокусировки пучка при прохождении через инфлектор, посредствам специальной искривленной формы электродов инфлектора.
В целом процесс оптимизации требует большого объёма вычислительного времени и анализа получаемых при этом данных. В этой связи встает проблема ускорения данного процесса путем использования высокопроизводительных вычислительных решений.
В данной работе предложен метод массивно-параллельных вычислений на графических процессорах (GPU), обладающий описанными выше преимуществами гибридной архитектуры для решения задач ускорительной физики.
Предложенный в работе метод массивно-параллельной архитектуры графических процессоров GPU позволяет решать сложные современные проблемы по комплексной оптимизации циклотрона с высокой степенью реалистичности производимых расчетов, такие как:
• трассировка пучков с большим количеством частиц.
• учет эффекта пространственного заряда.
• оценка потерь пучка на структурных элементах установки.
• работа с трехмерной геометрией установки и трехмерными картами электрических и магнитных полей.
• быстрый поиск параметров узлов циклотрона благодаря высокой степени параллелизма вычислительных процессов.
• визуализация физического процесса с высокой степенью детализации.
Структура и объем диссертации
.
Диссертация состоит из введения, шести глав, заключения и списка литературы. Материал изложен на 418 страницах, включает 22 таблицы, 367 рисунков, содержит 250 библиографических ссылок.
Основные результаты, полученные в диссертации:
1. Предложен новый подход к описанию физических процессов в циклотроне, базирующийся на сформулированном методе массивно-параллельной архитектуры графических процессоров (GPU) в комплексной оптимизации динамики пучка циклотрона.
2. Реализован качественно новый уровень моделирования физических процессов в ускорителе на базе предложенного метода массивно-параллельной архитектуры графических процессоров (GPU), что позволило увеличить на два порядка скорость вычислений.
3. Предложен новый триангуляционный подход по оценке потерь пучка на структурных элементах установки.
4. Разработаны новые параллельные алгоритмы на графических процессорах (GPU) для моделирования динамики пучка: алгоритм трассировки частиц пучка, алгоритм оценки потерь (триангуляционный подход), алгоритм учета эффекта пространственного заряда.
5. Предложен новый метод комплексной оптимизации динамики пучка циклотрона, включающий решение задач:
• поиск начальных условий для центрированной траектории пучка в циклотроне.
• оптимизация параметров инфлектора.
• оценка влияния краевого поля инфлектора на динамику пучка.
• оптимизация центральных ускоряющих электродов циклотрона на основе построения базы данных трехмерных электрических карт полей ускоряющих зазоров.
• оценка потерь частиц пучка на структурных элементах установки на основе предложенного триангуляционного подхода.
6. Предложена новая модель гидродинамического подхода для решения проблемы учета эффекта пространственного заряда для сферически симметричных распределений плотности заряда. Получен вид решения сформулированной модельной начально-краевой задачи относительно вектора электрического поля D и v — векторного поля скоростей заряженной среды.
7. Найдено точное решение модельной начально-краевой задачи об эволюции функции плотности заряда однородно заряженного шара.
8. Предложен численный алгоритм решения модельной начально-краевой задачи. Получены схемы с разным порядком аппроксимации.
9. Предложена новая модель гидродинамического подхода для решения проблемы оценки эффекта пространственного заряда для произвольного распределения функции плотности заряда. Предложена постановка новой модельной начально-краевой задачи относительно функции плотности заряда р и v — векторного поля скоростей заряженной среды. Получен вид решения и рассмотрены его свойства.
10.Предложен численный алгоритм решения модельной начально-краевой задачи для функций р и v. Исследованы условия устойчивости схемы. Получены схемы с разным порядком аппроксимации.
11.Найдено распределение магнитного поля в секторе 12−14 детектора ATLAS, LHC, CERN, Женева. Дана оценка вклада магнитного поля от магнитных элементов сектора 12−14 в интеграл по траектории.
12.Найдено распределение электромагнитных полей линии инжекции A VF RIKEN циклотрона (RIKEN, Япония), необходимое для моделирования процесса инжекции и процесса ускорения в центральной области установки.
13. Найдено распределение магнитных полей спектрометрических магнитов для экспериментов NIS и MARUSYA (ЛФВЭ, ОИЯИ, Дубна).
14.В рамках комплексной оптимизации динамики пучка в циклотроне создана программа CBDA (Cyclotron Beam Dynamics Analysis). Программа CBDA обладает следующими характеристиками:
• реализация предложенного в работе метода массивно-параллельных вычислений на GPU в комплексной оптимизации динамики пучка в циклотроне, дающего ускорение вычислений на два порядка;
• моделирование основных узлов циклотрона (линия инжекции, инфлектор, ускорительная область циклотрона, дефлектор), как по отдельности, так и в комплексе;
• работа с высоко-реалистичными трехмерными электромагнитными полями;
• использование предложенного в работе триангуляционного подхода в оценке потерь пучка, на реальной трехмерной геометрии установки, дающей высокую степень реалистичности;
• учет эффекта пространственного заряда пучка методом «крупных частиц» (PIC: Particle In Cell/PP: Particle to Particle);
• использование, предложенного в работе оптимизационного алгоритма построения трехмерной геометрии центральных ускоряющих электродов на основе использования базы данных электрических полей различных конфигураций ускоряющих зазоров;
• «дружественный» интерфейс, позволяющий легко стыковаться с программами по инженерному дизайну установки, такими как AutoCAD и SolidEdge, а так же с программами по расчету электромагнитных полей TOSCA и обработке данных моделирования MathCAD, а так же подробная документация;
• произведен ряд сравнительных тестовых расчетов динамики пучка, давший хорошее совпадение с известными программами.
15.Получена и реализована на практике оптимальная геометрия центральных ускоряющих электродов AVF RIKEN циклотрона.
RIKEN, Япония) для режима второй гармоники.
16.Найдена оптимальная геометрия центральных ускоряющих электродов для циклотрона VINCY (Белград, Сербия).
17.Проведена оптимизация потерь и качества пучка «Таможенного циклотрона», предназначенного для обнаружения взрывчатых веществ на таможне (Лос-Аламос, США).
18.Получены параметры линии инжекции пучка углерода в медицинский синхротрон (ЛФВЭ, ОИЯИ, Дубна) с током от 0 до 100 мА.
ЗАКЛЮЧЕНИЕ
.
Список литературы
- http://www.nvidia.com, официальный сайт компании NV1. IA
- D.Guillemand Mueller, 'Strategic plan for nuclear physics research in Europe', XXXIV European Cyclotron Progress Meeting (ECPM 2005), October 6−8, 2005.
- Y. Yano, Nucl. Instr. Meth. В 261 (2007) 1009.
- О. Kamigaito et al., Rev. Sci. Instr. 76 (2005) 133 061−1.
- O. Kamigaito et al., Rev. Sci. Instr. 70 (1999) 4523.
- K. Morita et al., J. Phys. Soc. Jpn. 73 (2004) 2593.
- T. Kubo et al., Nucl. Instr. Meth. В 70 (1992) 309.
- H. Sakurai et al., Phys. Lett. В 448 (1999) 180.
- Y. Yanagisawa, et al., Nucl. Instr .Meth. A 539 (2005) 74. 11.1. Tanihata et al., Phys. Rev. Lett. 55 (1985) 2676.
- T. Suzuki et al., Phys. Rev. Lett. 75 (1995) 3241.
- T. Motobayashi et al., Phys. Lett. В 346 (1995) 9.
- N. Imai et al., Phys. Rev. Lett. 92 (2004) 62 501.
- H.J. Ong et al., Phys. Rev. С 73 (2006) 24 610.
- Z. Elekes et al., Phys. Lett. В 686 (2004) 34.
- H. Ueno et al., Nucl. Phys. A 738, 211 (2004).
- T. Motobayashi, Nucl.Phys. A 693 (2001) 258.
- T. Nakamura et al., Phys.Rev. Lett. 96 (2006) 252 502.
- T. Kubo et al., IEEE Trans. Appl. Superconductivity 17 (2007) 1069.
- K. Suemmerer and B. Blank, Phys.Rev. С 61 (2000) 34 607.
- Т. Uesaka et al., CNS Annual Report 2004 (2005) 42.
- M. Wada et al., Nucl. Instr. and Meth. A 532 (2004) 40.
- Y. Sasamoto et al., CNS Annual Report 2004 (2005) 85.
- M. Wakasugi et al., Nucl. Instr. And Meth. A 532 (2004) 216.
- Y. Yamaguchi et al., CNS Annual Report 2004 (2005) 83.
- O. Kamigaito et al., RIKEN Accel. Prog. Rep. 39 (2005) 261.
- Белоцерковский О. M., Давыдов Ю. М., Метод крупных частиц в газовой динамике, М., 1982- 2. Дьяченко В. Ф., лЖ. вычисл. матем. и матсм. физ.
- Марчук Г. И., Методы вычислительной математики, Новосиб., 1973-
- Белоцерковский О. М., Давыдов Ю. М., Исследование схем метода «крупных частиц» с помощью дифференциальных приближений, в кн.: Проблемы прикладной математики и механики, М., 1971, с. 145−55.
- Григорьев Ю.Н., Вшивков В. А. Численные методы «частиц-в-ячейках» Новосибирск: Наука. Сибирская издательская фирма РАН, 2000.- 184 с.
- Харлоу Ф. Численный метод частиц в ячейках для задач гидродинамики // Вычислительные методы в гидродинамике. М.: Мир. 1967.-С. 316−342.
- Evans M.W., Harlow F.H. The patricle-in-cell method for hydrodynamic calculations. Los-Alamos. Lab. Rept. № LA-2139. 1957. pp.
- T. P. Wangler, K. R. Crandall, R. Ryne, and T. S. Wang, Phys. Rev. ST Accel. Beams 1, 84 201 (1998).
- S. M. Lund and R. C. Davidson, Phys. Plasmas 5, 3028 (1998).
- S. Bernal, R. A. Kishek, M. Reiser, and I. Haber, Phys. Rev. Lett. 82, 40 021 999)
- S. Bernal, B. Quinn, P. G. O’Shea, and M. Reiser, Phys. Rev. ST Accel. Beams 5, 64 202 (2002).
- R. A. Kishek, P. G. O’Shea, and M. Reiser, Phys. Rev. Lett. 85, 45 142 000).
- T. Antonsen, Fan, E. Ott, and Garcia-Lopez, Phys. Fluids 8, 3094 (1996).
- Белоцерковский O.M. Численное моделирование в механике сплошных сред. М.: Наука, 1984. 520 с.
- Белоцерковский О.М., Давыдов Ю. М. Исследование схем метода «крупных частиц» с помощью дифференциальных приближений. В сб.: Проблемы прикл. матем. и механ. -М.: Наука, 1971. С. 145−155.
- Белоцерковский О.М., Давыдов Ю. М. Метод «крупных частиц» (схемы и приложения).МФТИ, М., 1978. 124 с.
- Белоцерковский О.М., Давыдов Ю. М. Метод «крупных частиц» в газовой динамике. М.: Наука, 1982. 391 с.
- Белоцерковский О.М., Давыдов Ю. М. Нестационарный метод «крупных частиц» для газодинамических расчетов // Ж. вычисл. матем. и матем. физ., 1971, т. 11, № 1. С. 182−207.
- Белоцерковский О.М., Давыдов Ю. М. Расчет методом «крупных частиц» трансзвуковых"закритических" режимов обтекания // Ж. вычисл. матем. и матем. физ., 1973, т. 13, № 1.-С. 147−171.46.
- Шахов В.Г., Лагно О. Г. Применение метода «крупных частиц» для расчета обтекания биконической компоновки обтекателя // Самолетостроение России: проблемы и перспективы. Тезисы докл. II Всерос. конференции: Самара. 2000. С. 71−72.
- Лагно О.Г., Шахов В. Г. Расчет обтекания осесимметричного тела вращения под малым углом атаки методом крупных частиц. Деп. в ВИНИТИ, № 1676-В2001, 16 с.
- Лагно О.Г. Вычислительный пакет решения методом крупных частиц двухмерных задач аэродинамики // Сборник трудов X Всероссийского научно-технического семинара по управлению движением и навигации летательных аппаратов, Самара. 2002. С. 294−298.
- Лагно О.Г. Исследование методом крупных частиц обтекания осесимметричных тел при малых углах атаки // Сборник трудов X Всероссийского научно-технического семинара по управлению движением и навигации летательных аппаратов, Самара. 2002. С. 288 293.
- Лагно О. Г. Применение метода «крупных частиц» для расчета обтекания компоновки головного обтекателя под малым углом атаки
- P. Degond and Р.-А. Raviart, On the paraxial approximation of the stationary Vlasov-Maxwell system Math. Models Meth. Appl. Sciences 3 (1993), 513−562.
- H. Federer, Geometric measure theory Springer-Verlag, Berlin (1969).
- F. Filbet- E. Sonnendr’ucker and P. Bertrand, A Positive and Flux Conservative scheme for the numerical resolution of the Vlasov equation J. Comput. Phys. 172 (2001), 166−187.
- F. Filbet, J.-L. Lemaire, E. Sonnendr’ucker, Direct axisymmetric Vlasov simulations of space charge dominated beams. Lecture Notes in Comput. Sci., 2331, Springer, Berlin, Computational science—ICCS 2002, Part III (Amsterdam), (2002), pp. 305−314.
- F. Filbet and E. Sonnendr’ucker, Comparison of Eulerian Vlasov Solvers. Com-puter Physics Communications. 150 (2003), 247−266.
- M. Kapchinsky- V. V. Vladimrsky, Proceedings of the 9th international conference on high energy accelerators. Edited by L. Kowarski (CERN, Geneva) (1959), 274-.
- P. M. Lapostolle, IEEE Trans. Nucl. Sci. 18 (1971), 1101−1104.
- G. Laval- S. Mas-Gallic and P.-A. Raviart, Paraxial approximation of ultrarelativistic intense beams. Numer. Math. 1 (1994), 33−60.
- Nouri, Paraxial approximation of the Vlasov-Maxwell system: laminar beams. Math. Models Methods Appl. Sci. 4 (1994), pp. 203−221.
- F. Poupaud and M. Rascle, Measure solutions to the linear multidimensional transport equation with non-smooth coefficients. Comm. Partial Differential Equations 22 (1997), no. 1−2, 337−358.
- M. Reiser, Theory and Design of Charged-Particle Beams. Wiley, New York, (1994)).
- F. J. Sacherer, IEEE Trans. Nucl. Sei. 18 (1971), 1105−1109.
- Principles of ionization chamber operation under intense ionization rates. C. Velissaris, NUMI-717
- Nuclear Radiation Detectors. J. Sharpe, John Wiley and Sons.
- Space charge in ionization detectors and the NA48 electromagnetic calorimeter. S. Palestini et. al. NIM A421 (1999) 75−89
- Novokhatski, T. Weiland, PAC'99, New York, March 1999
- M. Krassilnkov et al., ICAP 2000, Darmstadt, September 2000
- M. Krassilnikov, T. Weiland, ICAP'02, East Lansing, USA, October 2002
- M. Comunian et al. Phys.Rev. Spec. Topics- Acc. and Beams, V.4,124 201 (2001)
- I.M. Kapchinskiy «Theory of Resonance Linear Acceler.», Harw.Ac.Pub., 1985.
- W.J. Sternberg, T.L. Smith, «The Theory of Potential and Spherical Harmonics», Harmonics, University of Toronto Press, 1952.
- H. Wiedemann, «Particle accelerator physics: Basic principles and linear beam75. dynamics», Berlin Springer, 1993
- DESY, Hamburg, Germany, tesla.desy.de. DESY-TTF.
- M. Fenn and G. Steidl. Fast NFFT based summation of radial functions. Sampling Theory in Signal and Image Processing, 3:1 28, 2004.
- L. Greengard. The Rapid Evaluation of Potential Fields in Particle Systems. MIT Press, Cambridge, 1988.
- L. Greengard and V. Rokhlin. A fast algorithm for particle simulations. J. Comput. Phys., 73:325 348, 1987.
- R. Hockney and J. Eastwood. Computer Simulation Using Particles. Institut of Physics Publishing, Bristol, 1992.
- S. Kunis and D. Potts. NFFT, Softwarepackage, C subroutine library.82.http://www.math.uni-luebeck.de/potts/nfft, 2002 2004.
- G. P’oplau, U. van Rienen, S. van der Geer, and M. de Loos. Multigrid algorithms for the fast calculation of space-charge effects in accelerator design. IEEE Transactions on Magnetics, to appear 2004.
- D. Potts and G. Steidl. Fast summation at nonequispaced knots by NFFTs. SIAM J. Sci.Comput., 24:2013 2037, 2003.
- D. Potts, G. Steidl, and A. Nieslony. Fast convolution with radial kernels at nonequispaced knots. Numer. Math., 98:329 351, 2004.
- D. Potts, G. Steidl, and M. Tasche. Fast Fourier transforms for nonequispaced data: A tutorial. In J. J. Benedetto and P. J. S. G. Ferreira, editors, Modern Sampling Theory: Mathematics and Applications, pages 247 -270, Boston, 2001. Birkh’auser.
- Pulsar Physics, De Bongerd 23, 3762 XA Soest, The Netherlands, www.pulsar.nl/89.gpt. General Particle Tracer (GPT), release 2.60 edition.
- G. Steidl. A note on fast Fourier transforms for nonequispaced grids. Adv. Comput. Math., 9:337 353, 1998.
- S. van der Geer and M. de Loos. The General Particle Tracer Code. Design, implementation and application. PhD thesis, TU Eindhoven, 2001.
- L. Ying, G. Biros, and D. Zorin. A kernel-independent adaptive fast multipole method in two and three dimensions. J. Comput. Pysics, to appear.
- D. Potts, G. Steidl, and M. Tasche, «Fast Fourier transforms for nonequispaced data: A tutorial,» in Modern Sampling Theory: Mathematics and Applications, J. J. Benedetto and P. J. S. G. Ferreira, eds., pp. 247 270, Birkh’auser, (Boston), 2001.
- G. P’oplau, «Fast direct solvers for PDE’s in shift-inariant periodic spaces,» in Approximation Theory VIII, C. Chui and L. Schumaker, eds., pp. 325 -333,World Scientific Publishing, Inc., (Singapore), 1995.
- S. Kunis and D. Potts, «NFFT, Softwarepackage, C subroutine library.» http://www.math.uni-luebeck.de/potts/nfft, 2002.
- G. P’oplau and U. van Rienen, «Multigrid Algorithms for the Tracking of Electron Beams», in Multigrid Methods VI, (E. Dick, K. Riemslagh, J. Vierendeels, eds.), LNSCE, 14, Springer, 2000, 214 220.
- W. Hackbusch, Multi-Grid Methods and Applications. Springer, Berlin, 1985.
- W. R. Madych and S. A. Nelson, «Polyharmonic cardinal splines,» J. Approx. Theory 60, pp. 141 161, 1990.
- G. P’oplau, «Fast solvers for elliptic PDE’s with radial basis functions,» University Rostock, Preprint 96/10, 1996.
- E. J. Kansa, «Multiquadrics- a scattered data approximation scheme with applications to computational fluid dynamics: I. surface approximations and partial derivative estimates,» Comput. Math. Appl. 19, pp. 127 145, 1990.
- E. J. Kansa, «Multiquadrics a scattered data approximation scheme with applications to computational fluid dynamics: II. solutions to parabolic, hyperbolic, and elliptic partial differential equations,» Comput. Math. Appl. 19, pp. 147−161, 1990.
- C. C. Paige and M. A. Saunders, «LSQR: An algorithm for sparse linear equations and sparse least squares,» ACM Transactions on Mathematical Software 8, pp. 43 71, 1982.
- Y. Saad, Iterative Methods for Sparse Linear Systems, PWS Publ., Boston, 1996.
- M. Hanke, Conjugate gradient type method for ill-posed problems, Wiley, New York, 1995.
- T. Weiland, «Eine Methode zur L’osung der Maxwellschen Gleichungen fur sechskomponentige Felder auf disketer Basis», AE"U 31, pp. 116−120, 1977.
- W.L. Briggs, Van Emden Henson, and S. McCormick, A Multigrid Tutorial. 2nd edition. SIAM, Philadelphia, 2000.
- G. P’oplau, U. van Rienen, M.J. de Loos, and S.B. van der Geer, «Multigrid Algorithms for the Fast Calculation of Space-Charge Effects in Accelerator Design», submitted, 2003.
- G. P 'oplau, U. van Rienen, M.J. de Loos, and S.B. van der Geer, «A Fast 3D Multigrid Based Space-Charge Routine in the GPT Code», Proceedings of EPAC 2002 (Paris), pp. 1658 1668, 2002.
- G. P’oplau, U. van Rienen, M.J. de Loos, and S.B. van der Geer, «A multigrid based 3D space-charge routine in the tracking code GPT». TESLA-Report 2003−03, DESY, Hamburg (tesla.desy.de/newpages/TESLA/TTFnot03 .html), 2003.
- Yuri K. Batygin, Self-consistent analysis of three dimensional uniformly charged ellipsoid with zero emittance, SLAC-PUB-8832, 17 May 2001
- Chao, Physics of Collective Beam Instabilities in High Energy Accelerators, (John Wiley & Sons, Inc., New York, 1993).
- F. Zimmermann, Proceedings Accelerator Physics at the Superconducting Super Collider, Dallas, TX, 1992−1993, edited by Y. Yan, et al., p. 98.
- N.S. Dikansky and D.V. Pestrikov, The Physics of Intense Beams and Storage Rings, (AIP Press, New York, 1994).
- R. Baartman, Proceedings International Workshop on Particle Dynamics in Accelerators: Emittance in Circular Accelerators, Tsukuba, Japan, 1994, edited by S. Machida and K. Hirata, (KEK, Tsukuba, Japan, 1995), p. 273.
- R.C. Davidson, Physics of Non-Neutral Plasmas, (Addison-Wesley Publishing, Reading, 1990), Chap. 10.
- L. Schachinger and R. Talman, Particle Accelerator 22, 35 (1987).
- S. Machida, Proceedings Computational Accelerator Physics Conference, Pleasanton, CA, 1993, edited by R. Ryne, (AIP-297, 1993).
- T. Tajima, Computational Plasma Physics: With Applications to Fusion and Astrophysics (Addison-Wesley Publishing, Reading, 1989), p. 78.
- C. Chen and R.A. Jameson, Phys. Rev. D 52, 3074 (1995).
- S. Machida, Space Charge Erects in Low Energy Proton Synchrotrons," Ph D. Thesis, University of Tokyo, May 1990.
- L.J. Laslett, Proceedings Summer Study on Storage Rings, Brookhaven National Laboratory, 1963. (BNL-7534, 1963), p. 324.
- E.D. Courant and H.S. Snyder, Ann. Phys. 3, 1 (1958).
- J. K. Koga and T. Tajima, J. Comput. Phys. 116, 314 (1995).
- Jung M. and Langer U. 1991, Applications of multilevel methods to practical problems Surv. Math. Ind. 1 217−257
- Jung M, Langer U, Meyer A, Queck W. and Schneider M. 1989, Multigrid preconditioners and their applications. Proc. of the 3rd GDR Multigrid Seminar (Biesenthal) 11−52
- P’oplau G, van Rienen U, Staats J andWeiland T 2000, Fast Algorithms for the Tracking of Electron Beams Proc. of EPAC 2000 (Vienna) 1387−1389
- P’oplau G, van Rienen U, de Loos M J and van der Geer S. B., A Fast 3D Multigrid Based Space-Charge Routine in the GPT Code Proceedings of EPAC 2002 (Paris) 1658−1668
- Staats J, Weiland T, Kostial S. and Richter A. 1999, Tracking of Electron Beams with Numerically Determined Space Charge Forces Proc. of the 1999 Particle Accelerator Conf. PAC'99 (New York) 2740−2742
- Van der Geer S B and de Loos M J 2001 The General Particle Tracer Code. Design, implementation and application PhD thesis
- Daubechies, «Ten Lectures on Wavelets», SIAM, Philadelphia, 1992.
- S.B. van der Geer, M.J. de Loos, O.J. Luiten, G. P’oplau, U. van Rienen, «3D Space-Charge Model for GPT Simulations of High-Brightness Electron Bunches», TESLA-Report 2003−04, DESY, 2003.
- G. P’oplau, U. van Rienen, S.B. van der Geer, M.J. de Loos, «A Fast 3D Multigrid Based Space-Charge Routine in the GPT Code», Proceedings of EPAC 2002 (Paris), pp. 1658−1660 (2002).
- G. P’oplau, U. van Rienen, S.B. van der Geer, M.J. de Loos, «Multigrid Algorithms for the Fast Calculation of Space-Charge Effects in Accelerator Design», IEEE Transactions on Magnetics, 40(2), pp. 714−717 (2004).
- M.J. van der Wiel, Conf. Proc. 2nd ICFA Future Accelerator Workshop on «The Physics of High-Brightness Beams», Los Angeles (1999).
- U. Cartel, «Parallel Multigrid Solver for 3D Anisotropic Elliptic Problems», Arbeitspapiere der GMD 390, St. Augustin, 1999.
- W. Hackbusch, «Multi-Grid Methods and Applications», SpringerVerlag, Berlin, 1985.
- R.W. Hockney, «Computer Simulation using Particles», Institute of Physics Publishing, Bristol and Philadelphia, 1994.
- G. P’oplau, U. van Rienen, «Multigrid Algorithms for the Tracking of Electron Beams», to appear in Multigrid Methods VI, (E. Dick, K. Riemslagh, J. Vierendeels, eds.), LNSCE, Vol. 14, Springer, 2000.
- W.H. Press, B.P. Flannery, S.A. Teukolsky and W.T. Vetterling, «Numerical Recipes in C. The Art of Scientific Computing», Cambridge University Press, 2nd edition, 1992.
- M. Reiser, «Theory and Design of Charged Particle Beams», John Wiley & Sons, Inc., New York, 1994.
- J. Ruge, K. St’uben, «Algebraic Multigrid (AMG)», in Multigrid Methods, (S.F. McCormick, ed.), SIAM, Frontiers in Applied Mathematics, Philadelphia, 1987.
- J. Ruge, K. St" uben, AMG1R5, release 1.5 Oct. 1990.
- J. Staats, T. Weiland, S. Kostial, A. Richter, «Tracking of Electron Beams with Numerically Determined Space Charge Forces», in Proceedings of the 1999 Particle Accelarator Conference PAC'99, New York, 27 402 742.
- K. St’uben, U. Trottenberg, «Multigrid Methods: Fundamental Algorithms, Model Problem Analysis and Applications», GMD-Studien 96, St. Augustin, 1984.
- S.B. van der Geer, M.J. de Loos, «The General Particle Tracer Code. Design, implementation and application», PhD thesis, Einhoven, 2001.
- General Particle Tracer (GPT), release 2.52, Pulsar Physics, De Bongerd 23, Soest, The Netherlands.
- W. Hackbusch, «Multi-Grid Methods and Applications», Springer, Berlin, 1985.
- B.E.C. Koltenbah, C.G. Parazzoli, «Space Charge Calculations of Elliptical Cross-Section Electron Pulses in PARMELA», Nucl. Instr. and Meth. in Phys. Res. A, Vol. 429, 1999, 281−286.
- G. F’oplau, U. van Rienen, J. Staats, T. Weiland, «Fast Algorithms for the Tracking of Electron Beams», Proceedings of EPAC 2000, Vienna, 2000, 1387−1389.
- G. P’oplau, U. van Rienen, «Multigrid Solvers for Poisson’s Equation in Computational Electromagnetics», Proceedings of the 3rd Conference on Scientific Computating in Electrical Engineering (SCEE-2000), (U. van
- Rienen, D. Hecht, M. G'unther, eds.), LNSCE 18, Springer, Berlin, 2001, 169−176.
- J. Staats, T. Weiland, S. Kostial, A. Richter, «Tracking of Electron Beams with Numerically Determined Space Charge Forces», Proceedings of the 1999 Particle Accelerator Conference PAC'99, New York, 1999, 27 402 742.
- John H Booske Brain, D McVey and Thomas M Antonsen Jr., J. Appl. Phys. 73(9), 4140 (1993)
- B. G. Leiman and O. B. Ovasyannikova, Sov. J. Plasma Phys. 10, 70 (1984)
- H. C. Chen, IEEE Trans. Nucl. Sei. 32, 2380 (1985)
- S. Cheng, W. W. Destier, V. L. Granastein, T. M. Antonsen Jr., B. Levush, J. Rodegers, and Z. X. Zhzng, IEEE Trans. Plasma Sei. 24, 750 (1996)
- A. V. Ravi Kumar, K. K. Mohandas and K. K. Jain, IEEE Trans. Plasma Sei. 26, 556 (1998)
- R. C. Davidson, H. W. Chen, C. Chan and S. Lund, Rev. Mod. Phys. 63,341 (1991)
- T. M. Antonsen Jr. and E. Ott, Phys. Fluids 18, 1197 (1975)
- M.J. van der Wiel, Conf. Proc. 2nd ICFA Future Accelerator Workshop on 'The Physics of High-Brightness Beams', Los Angeles (1999).
- S. Schreiber, Conf. Proc. ICFA Adv. Accel. Workshop on 'The Physics and Applications of High Brightness Electron Beams', Sardinia, Italy (2002).
- B. Carlsten and T. Raubenheimer, Phys. Rev. E 51, 1453 (1995).
- M.J. de Loos, S.B. van der Geer, F.B. Kiewiet, O.J. Luiten, M.J. van der Wiel, Proc. 2002 European Particle Accel. Conf., Paris, France, p. 1831.
- S.B. van der Geer, M.J. de Loos, Proc. 1998 European Particle Accel. Conf., Stockholm, Sweden, p. 1245.
- GPT User Manual, Pulsar Physics, De Bongerd 23, Soest, The Netherlands, www.pulsar.nl.
- G. Poplau, U. van Rienen, Proc. 3rd Conf. on Scientific Computing in Electrical Engineering 2000, edited by U. van Rienen, D. Hecht and M. Gunther, LNSCE (Springer, Berlin, 2001), p. 169.
- G. Poplau, U. van Rienen, M.J. de Loos, S.B. van der Geer, Conf. Proc. ICAP, Lansing, Michigan, USA (2002). also: TESLA Report 2003−03, DESY, Hamburg, 2003.
- W. Hackbusch, Multi-Grid Methods and Applications, Springer, Berlin, 1985.
- S.B. van der Geer, M.J. de Loos, J.I.M. Botman, O.J. Luiten, M.J. van der Wiel, Phys. Rev. E 65, 46 501 (2002).
- STANLEY HUMPHRIES JR. Numerical Modeling of Space-Charge-Limited Charged-Particle Emission on a Conformal Triangular Mesh, JOURNAL OF COMPUTATIONAL PHYSICS 125, 488−497 (1996)
- W. Scharf, Particle Accelerators and Their Uses (Harwood Academic, Chur, Switzerland, 1986).
- S. Humphries Jr., Charged Particle Beams (Wiley, New York, 1990), Section 7.3.
- R. True, IEEE Trans. Nucl. Sei. NS-32, 2611 (1985) — General Purpose Relativistic Beam Dynamics Code, in Computational Accelerator Physics, edited by R. Ryne (Am. Inst, of Phys., New York, 1994), p. 493.
- A. M. Winslow, J. Comput. Phys. 1(2), 149 (1967).
- M. N. O. Sadiku, Numerical Techniques in Electromagnetics (CRC Press, Boca Raton, FL, 1992), Chap. 6.
- W. H. Press, S. A. Teukolsky, W. T. Vetterling, and B. P. Flannery, Numerical Recipes in Fortran, 2nd ed. (Cambridge Univ. Press, Cambridge, 1992), Section 16.1.
- C. D. Child, Phys. Rev. 32, 492 (1911).
- D. Potter, Computational Physics (Wiley, New York, 1973), p. 88.
- J. R. Pierce, Theory and Design of Electron Beams (Van Nostrand, Princeton, NJ, 1949).
- Langmuir and D. Blodgett, Phys. Rev. 24, 49 (1924).
- F. Chautard, «Beam Dynamics for Cyclotrons», CAS Proceedings 12 (2005) 209
- H. W. Kim, Y. S. Lee, B. N. Lee, K. R. Nam, H. S. Song, J. S. Chai, SINGLE PARTICLE TRACKING SIMULATION FOR A COMPACT CYCLOTRON, Proceedings of IPAC2011, San Sebastian, Spain, pp.227 422 763
- F. Marti, R.C. York, H. Blosser, M.M. Gordon, D. Gorelov, T. Grimm, D. Johnson, P. Miller, E. Pozdeyev, J. Vincent, X. Wu, A. Zeller, Analysis of a Cyclotron Based 400 MeV/u Driver System For a Radioactive Beam Facility, MSUCL-1131, August 1999
- F. Marti, et al., «A Cyclotron Based Acceleration Chain for a 400 MeV/u Driver for a Radioactive Beam Facility», MSUCL-1126, June 1999.
- ISOL Technical Task Force (June 24−25, 1999 at NSCL), C. Leemann, Chairman.
- E. Baron, M. Bajard and Ch. Ricaud, «Charge exchange of very heavy ions in carbon foils and in the residual gas of GANIL cyclotrons», NIM, A328 (1993), 177−182.
- R. Servranckx, «Users Guide to the Program DIMAD», SLAC REPORT 285, UC-28(A), May 1985.
- B. F. Milton, «CYCLONE VER8.3», TRI-DN-99−4,January 28, 1999.
- B. Franzke, Vacuum Requirements for Heavy Ion Synchrotrons, IEEE Trans, on Nuc. Sci. NS-28 No.3, (1981) 2116.
- N. Bohr and J. Lindhard, Dan. Mat. Fys. Medd. 28, no. 7 (1954).
- H.D. Betz and Ch. Schmelzer, UNILAC 1−67 (1967).
- H.D. Betz, G. Hortig, E. Leischner, Ch. Schmelzer, B. Stadler, and J. Weihrauch, Phys. Lett. 22 No. 5 (1966)643
- W. Joho, «High Intensity Problems in Cyclotrons», 9th Int. Conference on Cyclotrons, p337, Caen, France 1981.
- M.M. Gordon, «The longitudinal space charge effect and energy resolution», 5 th
- Intl. Cyclotron Conf., pages 305−317, Butterworths, London, 1971.
- M.M. Gordon and V. Taivassalo, «The z4 code and the focusing bar fields used in the extraction calculations for superconducting cyclotrons», Nucl. Inst, and Meth., A247, 423 (1986)
- Belmont J.L. and Pabot J.L.: Study of Axial Injection for the Grenoble Cyclotron, IEEE Trans. Nucl. Sci. NS-13, p. 191, 1966.
- Laurency W. Root, Design of an inflector for the TRIUMF cyclotron, A thesis submitted in partial fulfillment of the requirements for the degree of Master of Science in the department of Physics, B.Sc., Oregon State University, 1968.
- Perepelkin E. and RIKEN collaboration RIKEN, Computer modeling of the Nitrogen, Oxygen, and Proton acceleration in RIKEN AVF Cyclotron, Accelerator Progress Report, 2009 vol.42.
- Perepelkin E. and RIKEN collaboration RIKEN Accelerator, Calculations of the beam transmission and quality in the RIKEN AVF Cyclotron, Progress Report, 2007 vol.4l, p.92
- S. B. Vorozhtsov, A. S. Vorozhtsov, E. E. Perepelkin, S. Watanabe, S. Kubono, T. Mitsumoto, A. Goto, CALCULATIONS OF THE BEAM TRANSMISSION AND QUALITY IN THE RIKEN AVF CYCLOTRON, Proceedings of RuPAC 2008, pp.51−53, Zvenigorod, Russia
- S. B. Vorozhtsov, A. S. Vorozhtsov, E. E. Perepelkin, S. Watanabe, S. Kubono, Y. Ohshiro, T. Mitsumoto and A. Goto, Beam Simulation of RIKEN K78 AVF Cyclotron ISSN: 1343−2230, pp.57−78, CNS-REP-76, 2006, University of Tokyo
- Перепелкин E.E. Аналитическая модель краевого поля инфлектора в циклотроне. Журнал «Математическое моделирование», т.24, № 3,2012, стр. 48−64.
- B.N.Gikal, G.G.Gulbekian, I.A.Ivanenko, U400 Cyclotron spiral inflector with beam vertical focusing effect, Proceedings of IPAC'10, Kyoto, Japan.
- Жидков Е.П., Перепелкин E.E., Ворожцов С. Б., Моделирование спирального инфлектора и центрирования орбит в компактном циклотроне. Журнал «Математическое моделирование», pp. 704−711, Vol. 1, No 6, 2009.
- Перепелкин Е.Е., Смирнов C.JL, Ворожцов С. Б., Использование технологии NVIDIA CUDA для расчета динамики пучков заряженных частиц, Вестник РУДН, «Математика. Физика. Информатика», с.76−82, № 1,2010
- Юдин И.П., Перепелкин E.E., Тютюнников С. И., Использование среды программирования CUDA при моделировании линии инжекции пучка ионов с учетом пространственного заряда. Письма в ЭЧАЯ, 2011, Т.8, № 6(169). С.989−995.
- Перепелкин Е.Е. 3-х мерная математическая модель оптимизации центральных электродов циклотрона. Вестник РУДН, «Математика. Информатика. Физика.», 2011, № 4. С.96−106.
- E.P.Zhidkov, E.E.Perepelkin, S.В.Vorozhtsov, Modeling of the Spiral Inflector and the Orbit Centering in a Compact Cyclotron, ISSN 2070JJ482, Mathematical Models and Computer Simulations, 2009, Vol. 1, No. 6, pp. 704−711.
- E. P. Zhidkov, R. V. Poljakova, I.G. Voloshina, E. E. Perepelkin, N. S. Rossiyskaya, Т. V. Shavrina, I. P. Yudin, Computer simulation of spectrometer magnets for some experimental installations, Письма в ЭЧАЯ, 2009, т.6, № 2 (151). С. 285−289
- Р.В.Полякова, Е. Е. Перепелкин, Т. В. Шаврина, И. П. Юдин, Расчеты распределения поля спектрометрического магнита, Письма в ЭЧАЯ, 2006, т. З, № 7(136), с. 74−77
- A.A.Baldin, E. E. Perepelkin, V. L. Smirnov, and I. P. Yudin, Mathematical Modeling of Field Distribution of SP57 Magnet for MARUSYA Experiment, ISSN 15 474 771, Physics of Particles and Nuclei Letters, 2010, Vol. 7, No. 1, pp. 51−56.
- LP. Yudin, I. G. Voloshina, E. E. Perepelkin, and N. S. Rossiyskaya, Numerical Experiment for Obtaining the Field Distribution of the NIS Spectrometric Magnet, ISSN 1547−4771, Physics of Particles and Nuclei Letters, 2007, Vol. 4, No. 4, pp. 367−376
- R. V. Polyakova, E. E. Perepelkin, T. V. Shavrina, and I. P. Yudin, Calculations of the Field Distribution of a Spectrometric Magnet, ISSN 1547−4771, Physics of Particles and Nuclei Letters, 2006, Vol. 3, Suppl. 1, pp. S43-S45.
- S.Vorozhtsov, .A.Vorozhtsov, .E.Perepelkin, .etc, The ATLAS Experiment at the CERN Large Hadron Collider, Aad, JINST 2008, S08003, vol.3, p.437
- Perepelkin E. and ATLAS collaboration, Commissioning of the magnetic field in the ATLAS muon spectrometer, Nucl.Phys.Proc.Suppl., 2008 ISSN:0920−5632, vol. 177−178, pp. 265−266
- T. J. T. Kwan, R. E. Morgado, T. F. Wang, B. K. Vodolaga, V. A. Terekhin, L. M. Onischenko, S. B. Vorozhtsov, A. S. Vorozhtsov, E. E.
- E. E. Perepelkin and S. B. Vorozhtsov, CBDA CYCLOTRON BEAM DYNAMICS ANALYSIS CODE, Proceedings of RuPAC 2008, pp.41−42, Zvenigorod, Russia
- E.E. Perepelkin, A.S. Vorozhtsov, S.B. Vorozhtsov and L.M. Onischenko, BEAM DYNAMICS SIMULATIONS FOR THE CUSTOMS CYCLOTRON, Proceedings of RuPAC 2006, pp. 348−350, Novosibirsk, Russia
- S.B.Vorozhtsov, E.E.Perepelkin, A.S.Vorozhtsov, DYNAMICAL PROPERTIES OF THE ELECTROMAGNETIC FIELD OF THE CUSTOMS CYCLOTRON, Proceedings of RuPAC XIX, pp.135−137, Dubna 2004
- S. B. Vorozhtsov, E. E. Perepelkin, A. S. Vorozhtsov, P. Belicev, N. Neskovic, M. Rajcevic, ION BEAM DYNAMICS SIMULATIONS FOR THE VINCY CYCLOTRON, Proceedings of RuPAC 2006, pp.316−318, Novosibirsk, Russia
- S.B.Vorozhtsov, L. M, Onischenko and E.E.Perepelkin, CUSTOMS CYCLOTRON AND BEAM DELIVERY SYSTEM, Cyclotrons and Their Applications 2007, pp.421−423, Eighteenth International Conference
- Perepelkin E., Progress report on SI2−14 modelling, ATLAS Magnetic Field Workshops, CERN, Geneva, CERN, Switzerland, 03/2006
- Российская H. С., Перепелкин E. E., Полякова P. В., Шаврина Т. В., Юдин И. П., МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ ПОЛЯ СПЕКТРОМЕТРИЧЕСКОГО МАГНИТА УСТАНОВКИ «МАРУСЯ»,
- XI Международная конференция «Математика, компьютер, образование», МКО — 2006, т. 2, стр. 178−186.
- Hadron Collider Physics Symposium, Isola d’Elba, Italy, 2007
- Dymnikov A.D., Perelshtein E. A, Nucl.Instr. a. Meth. 1978,148,567
- Lapostolle P.M. Proc. of Particle Accelerator Conf., Chicago, IEEE Trans. Nucl.Sci., 1971, NS-18,3,p. 1101
- Sacherer P.J. Proc. of of Particle Accelerator Conf., Chicago, IEEE Trans. Nucl.Sci., 1971, NS-18,3,p.l 105- CERN/SI/Int., 70−12,1970.
- IEEE TRANSACTIONS ON MAGNETICS November 1985 Volume MAG-21 Number 6 Z. X. Feng The treatment of singularities in calculation of magnetic field by using integral method
- Э. А. Айрян, E. П. Жидков, А. В. Федоров, Б. H. Хоромский, И. А. Шелаев, И. П. Юдин, О. И. Юлдашев, ЭЧАЯ 1990 том 21 выпуск 1 Численные алгоритмы расчета магнитных систем ускорителей заряженных частиц.
- F. Chautard. Beam dynamics for cyclotrons. CERN 2006−012, p.209.
- N. Hazewindus et. al., The magnetic analogue method as used in the study of a cyclotron central region, Nuclear Instruments and Methods 118 (1974) 125−134.
- OPERA/TOSCA Reference Manual. Vector Fields Limited. Oxford, OX5 1JE, England
- V.A.Mashinin et al. «Review of the Possibilities of Gamma-Resonance method of HE Detection». Technical Workshop on Explosives Detection Systems based on Nuclear Resonance Absorption in Nitrogen. June 7 9, 2004. Dubna, Russia.
- L.M.Onischenko et al, «General views of the Customs Cyclotron (magnetic, acceleration and extraction systems)». Ibid.
- A.S.Vorozhtsov, S.B.Vorozhtsov. Magnetic Field Simulation in the Customs Cyclotron. RuPAC 2004
- Юдин И.П., Перепелкин E.E. Использование параллельных вычислений на графических процессорах при исследовании пропускной способности канала транспортировки пучка ионов с учетом пространственного заряда. Вестник СПбГУ, т. 10, № 3, с. 103 112, 2012.