fian-inform

Switch to desktop Register Login

22 ноября 2009 года в Москву прилетел руководитель Отделения ядерной физики и астрофизики Физического института им. П.Н. Лебедева РАН (ФИАН) д.ф.-м.н. Олег Далькаров, который участвовал в 31-м заседании Совместного Комитета Россия - ЦЕРН, сопредседателями которого являются министр образования РФ Андрей Фурсенко и генеральный директор ЦЕРНа Рольф-Дитер Хойер.

Вечером 20 ноября 2009 года состоялся пробный запуск Большого адронного коллайдера (БАК или LHC). Пробный в том смысле, что пока протонные пучки проходили по двум соответствующим вакуумным проводам, то есть по двум кольцам, энергия пучков была 250 ГэВ, пока ускорения не было. Столкновение частиц не планировалось. Это был пробный запуск с целью проверки всех промежуточных ступеней, то есть работы магнитов, удержания поля и всего прочего. После аварии, случившейся осенью прошлого года, руководство ЦЕРНа очень осторожно относится к планированию его работы: на этот раз начали с минимальных параметров, и повышаться они будут постепенно. Однако начальный этап запуска коллайдера состоялся, и к этому событию было приурочено 31 заседание Совместного Комитета Россия - ЦЕРН.

"К 15 декабря, то есть за ближайшие 2-3 недели, планируется поднять суммарную энергию разгоняемых пучков до 1,2 ТэВ. К тому же, одновременно с перезапуском LHC, были начаты работы по его модернизации для увеличения интенсивности пучков. Вполне возможно, что уже в будущем году интенсивность будет поднята на порядок", - рассказывает дальше Олег Далькаров.

Таким образом, в середине декабря планируется провести опыты со столкновением вращающихся протонных пучков протонов с энергиями ближе к 1 ТэВ. Однако пока эти столкновения будут считаться пробными, так как их энергии уступают тем, что могут быть достигнуты на ускорителе "Тэватрон", который работает в США. Максимальная же энергия, которая может быть достигнута на БАК, - 14 ТэВ. Эта энергия определяется радиусом построенного кольца - 27 км.

Следующий, второй этап – это получение данных. К этому этапу все детекторы сейчас готовы, то есть если бы сейчас были столкновения, то можно было бы получать данные. Один из основных результатов, на получение которых можно рассчитывать – ограничение на массу бозона Хиггса. Оно позволит подтвердить или опровергнуть существующие модели картины мироустройства, которые объясняют, откуда у всех наблюдаемых объектов берется масса.

В настоящее время продолжается активное сотрудничество лабораторий ФИАН с ЦЕРНом, начало которому было положено более 40 лет назад. Сотрудники ФИАН принимают активное участие в экспериментальных и теоретических исследованиях фундаментальных взаимодействий в ЦЕРНе и обработке данных:

• в изготовлении и эксплуатации
- трекового детектора переходного излучения для эксперимента ATLAS;
- жидкоаргоновых калориметров для эксперимента ATLAS;
- электромагнитного калориметра для эксперимента CMS;
• в эксперименте OPERA по поиску осцилляций нейтрино;
• в эксперименте COMPASS по изучению реакций ассоциативного рождения адронов;
• в эксперименте CLOUD по исследованиям роли потоков заряженных частиц, как в формировании электродинамических свойств атмосферы, так и в процессе глобальных изменений облачности и климата;
• в разработке программного пакета GEANT-4, предназначенного для моделирования прохождения ионизирующего излучения через вещество;
• в разработке системы GRID.

На БАК 4 основных детектора: ATLAS, CMS, ALICE, LHCb, все они смонтированы в местах столкновения частиц. Основными из них на сегодняшний день являются ATLAS и CMS, эти детекторы нацелены на протон-протонные столкновения, именно они будут получать физическую информацию в следующем году. Детектор ALICE рассчитан на регистрацию столкновений тяжелых ионов, это уже следующий этап на БАК. LHCb – это, так называемая, B-мезонная фабрика, это следующие после ATLAS и СМS эксперименты.

Сотрудники ФИАН (6 групп различной специализации) работают и на ATLAS, и на СМS. На ATLAS ФИАН отвечает за два очень существенных элемента этого детектора. Первый – это внутренний детектор, который стоит в самом "сердце" ATLAS (длина детектора - 46 метров, высота - 30 метров). Это трековый детектор переходного излучения, который готовила группа Алевтины Павловны Шмелевой (ведущий научный сотрудник лаборатории Элементарных частиц ФИАН). Эта группа в рамках международной коллаборации разрабатывала конструкцию самого внутреннего детектора, руководила процессом его сборки и калибровки, создавала программное обеспечение для моделирования процессов в детекторе и алгоритма восстановления трека.

Вторая группа, которой руководит доктор физ.-мат. наук Астон Антонович Комар (заведующий лабораторией электронов высоких энергий ФИАН), отвечает за жидкоаргонный детектор, это элемент детекторной структуры того же АТЛАСА, элемент довольно существенный, поскольку из-за огромной множественности рождающихся частиц при столкновении пучков столь высокой энергии для распознавания и восстановления треков требуется использование разного типа детекторов и регистрирующих устройств, и вот одно из них – это жидкоаргонный детектор.
На CMS фиановская группа под руководством Сергея Васильевича Русакова (главный научный сотрудник лаборатории электромагнитных взаимодействий ФИАН) занимается разработкой программного обеспечения, работает в сменах по калибровочным измерениям характеристик детектора, готовится к обработке данных.

Нужно отметить, что исследовательская деятельность в ЦЕРНе не замыкается только на экспериментах непосредственно в коллайдере. Очень важно, что выполняется большое количество экспериментов на всех ускорительных системах центра.

Так, например, группа доктора физ.-мат. наук Юрия Анатольевича Александрова (главный научный сотрудник лаборатории электронов высоких энергий ФИАН) участвует в проекте COMPASS – это многоцелевой детектор, на котором уже получены интересные результаты по B-мюонным исследованиям.

Целью проекта PS215/CLOUD (д.ф.-.м.н. Махмутов В.С., работы на ускорителе PS) являются фундаментальные исследования роли потоков заряженных частиц как в формировании электродинамических свойств атмосферы, так и в процессе глобальных изменений облачности и климата (в том числе – исследование космофизических причин наблюдаемого в последние годы процесса глобального потепления на Земле.
Также в ЦЕРНе действует антипротонный замедлитель AD, где изучается физика взаимодействий вещества и антивещества и успешно реализуется уникальный проект синтеза, накопления и исследования свойств ультрахолодного антиводорода несколькими экспериментальными коллаборациями. Основными физическими целями данных экспериментов является изучение физики взаимодействия вещества и антивещества, проверка методами атомной спектроскопии с высокой степенью точности (до 10-18) сохранения фундаментальных симметрий, исследование гравитационных свойств антиводорода и поиск новых типов фундаментальных взаимодействий. Успешные экспериментальные исследования ультрахолодного антиводорода и его взаимодействия с веществом требует решения ряда теоретических проблем. Для их решения в работах теоретиков ФИАН (д.ф.-.м.н. О.Д.Далькаров) был предложен и развит квантовомеханический формализм для описания взаимодействия атомов водорода и антиводорода при ультранизких энергиях.

Для осуществления эксперимента ОPERA в ЦЕРНе был создан специальный канал CNGS (The CERN Neutrinos to Gran Sasso), который формирует нейтринный пучок (специально предназначенный для изучения осцилляций нейтрино) в направлении итальянской подземной лаборатории Gran Sasso. Эксперимент ОПЕРА (OPERA, Oscillation Project with Emulsion-tRacing Apparatus) – один из крупнейших современных международных экспериментов в области нейтринной физики, в котором участвуют специалисты из 39 институтов 13 стран мира (в том числе из 5 российских институтов; руководитель фиановской группы – д.ф.-.м.н. Н.Г.Полухина), 180 физиков.

Программный пакет Geant4 предназначен для моделирования прохождения ионизирующего излучения через вещество. Проект стартовал в 1994 г. как НИР ЦЕРНа для экспериментов БАК по разработке объектно-ориентированного программного обеспечения, обеспечивающего надежную поддержку больших пакетов (порядка миллиона строк на языке С++). В конце 1998 г. была успешно представлена бета-версия пакета, а в 1999 г. проект был преобразован в международное сотрудничество, поскольку к тому времени стали ясны его большие перспективы для приложений в астрофизике, дозиметрии и медицине. ФИАН (руководитель – д.ф.-.м.н. В.М.Гришин) с самого начала активно участвует в разработке Geant4.
В настоящее время в мире происходит бурное развитие новой компьютерной технологии – Грид (GRID), названной так по аналогии с электрическими сетями – electric power grid. Суть технологии заключается в объединении географически распределенных и гетерогенных по своему составу компьютерных ресурсов в некую инфраструктуру, обеспечивающую простой, надежный, совместимый по программному обеспечению, быстрый и безопасный доступ к этим ресурсам. В ФИАН в 2006 году создана и успешно функционирует компьютерная ферма, построенная на основе технологии Грид (руководитель – О.М.Полянникова). Эта ферма является ресурсом GRID сети LCG, предназначенной для моделирования и анализа данных экспериментов на ускорителе LHC в ЦЕРН.

Многие научные результаты, полученные в ФИАНе, являются основополагающими для создания новой мощной ускорительной техники и для развития эффективной методики детектирования частиц. Являются они ключевыми и для теоретической интерпретации процессов при высоких энергиях, включая будущие эксперименты на БАК.

Принцип автофазировки, открытый в ФИАНе В.И.Векслером, составляет основу всех крупнейших современных (циклических) ускорителей частиц.
Эффект Вавилова-Черенкова, открытый и объясненный в ФИАНе, используется практически в каждом современном детекторе частиц высоких энергий.

Переходное излучение, предсказанное в 1946 г. В.Л. Гинзбургом и И.М. Франком, экспериментально обнаружено А.Е.Чудаковым в 1955 г. В дальнейшем это явление активно изучалось в лаборатории элементарных частиц в ФИАНе с целью создания на его базе детектора для физики высоких энергий. В настоящее время детектор переходного излучения является одним из основных элементов внутреннего детектора эксперимента ATLAS, крупнейшего эксперимента на LHC.

Выдающийся вклад в развитие сверхпроводимости внесен В.Л. Гинзбургом. В настоящее время сверхпроводимость широко используется в современной ускорительной и экспериментальной физике высоких энергий.

А.И. Никишовым и В.И. Ритусом в 1964-67 г.г. построена теория фундаментальных процессов квантовой электродинамики в интенсивных полях, предложено их наблюдение во встречных электрон-фотонных (лазерных) и фотон-фотонных (лазерных) пучках. В 1996 - 99 г.г. важнейшие из этих процессов были успешно наблюдены на Стэнфордском линейном ускорителе американскими физиками.

Решающий вклад в теорию множественных процессов при высоких энергиях внесли работы Е.Л. Фейнберга и сотрудников.
Ю.А. Гольфандом и Е.П. Лихтманом в 1971 г. была впервые предложена суперсимметрия – фундаментальная симметрия нового типа, объединяющая в единые мультиплеты бозоны и фермионы.

В работах Е.С. Фрадкина, И.А. Баталина и Г.А. Вилковыского, Б.Л. Воронова и И.В. Тютина развит универсальный метод квантования калибровочных теорий общего вида.

Россия еще с советских времен вносит огромный вклад в работу ЦЕРНа, при этом не только в экспериментах на БАК. Что касается собственно самого коллайдера (подобный ускоритель, кстати говоря, изначально планировалось строить именно в подмосковном Протвино), то во всех обслуживающих системах и в организации работы всех без исключения детекторов присутствует российская "составляющая".

"Вклад России в ЦЕРН очень большой. ЦЕРН – это гигантский исследовательский центр, в котором работают тысячи людей. Для обеспечения стабильной работы БАК организовано круглосуточное дежурство. На дежурстве в этих сменах за работой элементов коллайдера и детекторов следят в основном физики-экспериментаторы, которые непосредственно участвовали в их разработке. Участие в сменах рассматривается как прямой вклад в выполнение эксперимента и при отработке определенного количества смен дает право на соавторство в публикациях", - заканчивает Олег Далькаров свой рассказ.

Следующее заседание Совместного Комитета Россия - ЦЕРН состоится в Москве в июне 2010 года. Вполне возможно, что уже к этому времени, масштабы интеллектуальной помощи, оказываемой ЦЕРНу нашей страной, успеют значительно увеличиться.

АНИ «ФИАН-информ»

    С 14 февраля 2013 года Большой Адронный Коллайдер (БАК) закрыт на модернизацию и апгрейд существующих детекторов. А что делает БАК, когда не работает? О нюансах обработки данных самого масштабного научного эксперимента в истории рассказывает сотрудник ФИАН Руслан Машинистов

 

    Старший научный сотрудник лаборатории элементарных частиц ФИАН Машинистов Руслан Юрьевич с 2005 года вместе с Игорем Леонидовичем Гавриленко работает в группе программного обеспечения трекинга в эксперименте ATLAS на Большом Адронном Коллайдере над проектом адаптации кода для использования многоядерных процессоров. От эффективности и корректности разрабатываемого ими программного обеспечения напрямую зависит и качество будущих исследований. А, следовательно, и судьба возможных будущих открытий. Мы попросили Руслана рассказать о важности и особенности проводимых ими разработок, их месте в эксперименте.

 

mashinistov1
На фото: Р. Машинистов на фоне детектора TRT

 

    Руслан, расскажите, чем занимаются исследователи во время этого перерыва в работе Коллайдера?

    Работы не меньше, чем во время экспериментов! Коллайдеру требуется не только капитальный ремонт, но и апгрейд инфраструктур - подводящих систем детекторов, программного обеспечения (ПО) для обработки данных. Так, одно из направлений модернизации связано с возможностью использования многопроцессорных и многоядерных вычислительных систем. Ведь у нас постоянно растёт эффективность ускорителя, что увеличивает наложение событий и, соответственно, сложность разных стадий обработки данных. Например, реконструкции и трекинга. 

 

     Что означают термины «реконструкция» и «трекинг»?

    Реконструкция – это процесс получения из «сырых» данных от различных датчиков и детекторов информации о физических частицах, их свойствах и траекториях. Он включает в себя несколько этапов. Первый – это оцифровка данных, а второй – как раз тот самый трекинг: восстановление траекторий движения (или треков) элементарных частиц внутри детектора. С точки зрения ПО, трек – это математическая модель пути, которая задаётся пятью параметрами и определяется по координатам точек, где частица пересекает различные датчики детектора. Поэтому первые два параметра – глобальные координаты датчика в геометрическом пространстве, а другие два – координаты локальные, координаты точки, где трек пересёк детектор в его системе координат. Эта система координат может быть декартовой, сферической, цилиндрической. Одним словом, привязана к геометрии детектора. И, наконец, пятым параметром идёт отношение заряда к значению поперечного импульса.

 

   Получается, что детекторы в этих экспериментах считаются некими идеальными приборами, которые только регистрируют траекторию частиц и никак на неё не влияют?

    Нет-нет, детекторы влияют и это учитывается. Ведь есть эффект взаимодействия с материей. Частица пересекает различные детекторы из различных материалов, теряет импульс и отклоняется от траектории. С этим связан один из самых сложных моментов обработки, который называется калибровкой детектора. С одной стороны, обладая одной точкой трека, мы можем предсказать, в каком месте частица пересечёт следующий детектор. А с другой, мы потом получаем отличные от предсказанных координаты из детекторного сигнала. И реальное значение где-то посередине, а в процессе калибровки мы как раз делаем так, чтобы наше моделирование начальных данных и сигналы с детекторы давали максимально близкие координаты.

 

    А когда мы сможем определить: вот эта пролетевшая частица – это электрон или протон?

    После трекинга мы ещё только понимаем, что какая-то частица летела по какой-то траектории. У неё может быть заряд, по сути, положительный или отрицательный. Дальше, за трекингом идёт реконструкция следующего уровня, когда на выходе мы знаем, что у нас за частица – электрон, мюон или, например протон, и какие у неё параметры.

 

    Как помогут в решении этих задач многоядерные вычисления?

   Начать надо с того, что сейчас, помимо многоядерных вычислений, существует ещё один подход к вычислительным системам, который пытаются внедрить в экспериментальной физике. Это так называемые графические процессоры, которые по сути представляют многомерную матрицу физических процессоров. Грубо говоря, это вычислительные машины на тысяче независимых процессоров. Насколько я знаю, их уже используют в триггерных системах, которые в реальном режиме времени решают, какие события стоит записывать, а какие отсекать. В остальном в использовании графических процессоров есть серьёзные сложности. Они разработны для решения специлизированных задач, а именно – матричных вычислений. Для этого даже существует свой язык программирования. А потому все гигантские коды нашего современного ПО реконструкции для работы на графических процессорах нужно переводить и оптимизировать. Это нецелесообразно! Поэтому пока оптимальным решением является использование центральных многоядерных процессоров. Хотя и в этом подходе есть свои сложности.

    Главная сложность в том, что код очень гетерогенный, разнообразный. Это часто бывает в таких эпических экспериментах. Ведь код пишется разными людьми и на протяжении долгого времени. В результате, используются разные языки, подходы, базы данных. Например, сейчас 99 % кода написано на C++, а когда вся история только начиналась, около 20 лет назад, основным языком был Fortran. Или другой пример – когда я восемь лет назад только пришёл в эксперимент, наш детектор TRT (Transition Radiation Tracker, Трековый Детектор Переходного излучения – прим. Ред.) ещё был на поверхности и проверялся без магнитного поля. Соответсвенно, все траектории были прямые и под них был написан код обработки. А когда включили магнитное поле, они стали уже спиралеобразными и понадобились новые алгоритмы трекинга.

 

    И к чему приводит такая изменчивость и неоднородность программного кода?

  В результате, большинство вычислений у нас идут линейным порядком – работает только одно вычислительное ядро, а остальные, получается, простаивают. Поэтому разработчики ПО сейчас стараются оценить старый код с точки зрения того, можно ли его малыми усилиями переработать для осмысленного использования преимуществ многоядерных процессоров. И вот со стороны ФИАН этими задачами  занимаюсь я и И.Л. Гавриленко.

 

    Расскажите, пожалуйста, подробнее о своей работе

   Вот один из примеров – недавно я решал задачу по упрощению кода, который отвечает за работу с параметрами трека. Как мы помним, их пять – глобальные координаты, локальные координаты и поперечный импульс. И вот в начале был какой-то пакет обработки для треков без заряда. Все линии прямые. А потом включили магнитное поле, и заряды частиц стали важны. Нейтральные частицы летели по прямой, а заряженные по спирали. Поэтому разработчики ПО в самом начале кода сделали такую «вилочку» – либо то, либо то. А потом сказали: «У нас у детекторов могут быть разные поверхности». Значит разные системы локальных координат. Ещё одна «вилочка»! Получается такая большая разветвлённость, а код практически везде одинаковый. Меняется только один-два параметра. В конце 2012 года я составил план по объединению таких разветвлений в единый код. Вот как раз такими задачами мы с Игорем Леонидовичем и занимаемся. Или другой пример: мы взяли ресурсозатратные алгоритмы и перестроили внутренним образом так, чтобы каждый новый трек поступал на освободившееся ядро. Первые наши данные показали непосредственную зависимость снижения времени вычисления от числа ядер. Так что принципиальную возможность переделать код, чтобы он эффективно решался на параллельных вычислительных ядрах, мы показали. Но это только первый шаг! Ведь изменения таких ключевых компонентов кода неизбежно повлекут каскадные изменения в десятках, если не сотнях других программных пакетов эксперимента.

 

    В последнее время много говорят о распределённых, облачных вычислениях. Будет ли как-то использоваться этот подход в экспериментах на коллайдере?

   Будет, но только в следующем за реконструкцией этапе обработки данных –  физическом анализе, который достаточно независимо выполняется физиками по всему миру. И вот, чтобы снизить нагрузку, делается система глобального распределения GRID, которая позволяет физикам ставить свои задания в очередь и организовывает контролируемый доступ к общим данным – трекам, параметрам частиц и так далее.

 

    Получается, в этом смысле параллельные вычисления уже давно используются? Только вместе ядер выступают живые люди?

    В этом смысле, конечно. Вообще, вся эта модульная и параллельная система логически вытекает из организации менеджмента и управления ЦЕРН. Ведь здесь есть много больших и почти независимых групп – одна, условно говоря, занимается трекингом, другая – физическим анализом, а третья – обслуживанием детектора. Им даются глобальные задания, которые разбиваются на подзадания для минигрупп и так далее. Даже внутри нашего детектора я, например, занимаюсь пакетом, который отвечает за параметры треков. Кто-то соседний – за такую же работу, связанную с алгоритмами пересчёта координат. А третий человек, например, разбирается с программным описанием геометрии детектора. Очень часто мы все делаем похожие вещи, но в различных частях кода. А чтобы не было такого пересечения, чтобы два человека не делали одну и ту же работу, у нас происходят регулярные «митинги» (от англ. meeting – встреча прим. Ред.), то есть рабочие совещания, где люди закрепляют за собой задачи. Примерно вот такой процесс. Очень распараллеленный и эффективный.  

 

М. Петров, АНИ «ФИАН-информ»

ФИАН - Информ © 2012 | All rights reserved.

Top Desktop version