В рамках этого направления в 1998 г. был проложен волоконно-оптический кабель между АТС ПИЯФ и Гатчинским районным узлом связи (в настоящее время ОАО "Северо-Западный Телеком") общей протяженностью около 6 км.

В 2005 году выполнены работы по организации канала c пропускной способностью 100 Mbps с использованием арендованного ПИЯФ "темного" волокна Гатчина—Санкт-Петербург в Федеральную университетскую компьютерную сеть России RUNNET и академическую сеть РОКСОН. В 2007 году на канале было установлено новое оборудование, увеличившее пропускную способность до 1 Gbps. Основное назначение этого канала — организация взаимодействия вычислительных центров с использованием технологии Grid. В период с 1998г. по 2009 г работы по развитию средств телекоммуникации и оплата каналов в научно-образовательные сети выполнялись в лаборатории в рамках программы Совета РАН "Научные телекоммуникации и информационная инфраструктура ".

В настоящее время внешние интернет каналы института представлены каналами с пропускной способностью 1 Гбит/сек через провайдера ООО “ИТ-Регион” в Гатчине и 2 Гбит/сек по арендованному “темному” волокну в СПб (Боровая, 57) через провайдеров ООО “ВЕРОЛАЙН” (канал с пропускной способностью 100 Мбит/сек для “public”-интернет) и ФГУ ГНИИ ИТТ «Информика» (канал в научно-образовательные сети с пропускной способностью 1 Гбит/сек и канал с пропускной способностью 1 Гбит/сек в НИЦ “КИ”).

Установленный в лаборатории кластер насчитывает более 70 современных многоядерных вычислительных узлов c оперативной памятью из расчёта 2 Гб на ядро, обеспечивающих одновременную обработку до 300 заданий. В состав кластера входит дисковая система хранения данных общим объёмом более 200 Тб. Внутренняя сеть кластера построена на основе технологии Gigabit Ethernet, соединение с внешними сетями обеспечивается двумя оптоволоконными каналами с пропускной способностью 1 Гбит/с каждый.

На узлах кластера установлена 64-битная ОС Scientific Linux, система управления пакетными заданиями Torque и программное обеспечение EMI 3. Возможно выполнение параллельных заданий с использованием технологии MPI. Кластер включен в международную Грид-инфраструктуру WLCG (Worldwide LHC Computing Grid) и является ресурсным центром RDIG (Russian Data Intensive Grid). Через инфраструктуру Грид производится хранение и обработка данных четырех экспериментов БАК в рамках виртуальных организаций atlas, alice, cms и lhcb, а также собственной виртуальной организации nw_ru, предоставляющей доступ к кластеру для сотрудников нашего института. В среднем кластер обеспечивает обработку около 70 тысяч заданий в месяц в течение последних 9 лет.