Leon Kos, Laboratorij za konstruiranje LECAD, Univerza v Ljubljani, Fakulteta za strojništvo
Integrirano modeliranje (IM) je skupek programskih in podatkovnih rešitev, ki omogočajo povezavo ter analizo eksperimentalnih in simulacijskih podatkov v enotnem okolju na različnih časovnih in prostorskih skalah in dimenzijah.
Laboratorij LeCAD se vrsto let ukvarja integriranim modeliranjem jedrske fuzije, ki vključuje stalno uporabo superračunalniškega okolja (HPC) za razvoj in poganjanje specializiranih programskih kod. S pričetki IM v Evropski agenciji za razvoj fuzije (EFDA) in sedaj v konzorciju EUROfusion se je razvilo podatkovno okolje, ki ga je prevzela organizacija ITER, ki pripravlja največji fuzijski eksperiment s ciljem desetkratnega dobitka (Q=10) koristne energije.
Program IM ITER in njegova povezana programska infrastruktura IMAS zagotavljjo preverjena programska orodja za fiziko, ki so potrebna za uspešno izvajanje raziskovalnega načrta. Celovito programsko infrastrukturo sestavljajo: programska oprema za fiziko, ki jo v veliki meri dobavlja skupnost (EUROfusion in ostale članice ITER); elemente, ki podpirajo interakcijo z zapisovanjem in prenosom podatkov med posameznim,i komponentami; kot tudi programska orodja za namestitev za podporo uporabi in s tem potrjevanje potekov dela IMAS na različnih strojnih napravah znotraj raziskovalnih inštitutov članic ITER. Splošni cilji programa IM so: zadovoljevanje začetnih potreb projekta ITER po natančnejših napovedih in učinkovitem nadzoru plazem; in dolgoročno zagotovitev orodij za modeliranje in nadzor, ki so potrebna za fazo izkoriščanja. Za povezovanje med kodami se uporablja dogovorjene podatkovne strukture (IDS), ki so pripravljene za uporabo v različnih programskih jezikih z dostopom do podatkov preko povezovalgega sloja (AL). Laboratorij LeCAD je v IMAS integriral ali razvil kode kot so SOLPS-ITER, SMITER, JOREK, PDS-WF, ETS, GGD, Raysect, Elmer, ETS, Scenplint, Transmak, …
V prispevku so predstavljeni pomembni izzivi IM fuzije in uporaba infrastrukture IMAS za skupno raziskovalno delo pri pripravi HPC simulacij za prihajajoče eksperimente, ki bodo v rangu velepodatkov (Big Data) pri zajemanju in obdelavi diagnostičnih signalov. Prav tako je izziv HPC pri pripravi simulacij in interpretaciji eksperimentalnih rezutatov.