<h1id="master-math-astronomy-research">MASTER — Math, ASTronomy & Research</h1>
<p>Benvenuti nel sito ufficiale del gruppo di lavoro <strong>MASTER</strong>, dedicato allo sviluppo di algoritmi e pipeline per l’ottica adattiva e l’imaging ad alta risoluzione.</p>
<p>Le nostre attività includono anche se forse:</p>
<p>Le nostre attività includono cose del tipo:</p>
{"config":{"lang":["en"],"separator":"[\\s\\-]+","pipeline":["stopWordFilter"],"fields":{"title":{"boost":1000.0},"text":{"boost":1.0},"tags":{"boost":1000000.0}}},"docs":[{"location":"","title":"MASTER \u2014 Math, ASTronomy & Research","text":"<p>Benvenuti nel sito ufficiale del gruppo di lavoro MASTER, dedicato allo sviluppo di algoritmi e pipeline per l\u2019ottica adattiva e l\u2019imaging ad alta risoluzione.</p> <p>Le nostre attivit\u00e0 includono anche se forse:</p> <ul> <li>Ricostruzione PSF (PSF-R) </li> <li>Post-processing di immagini AO </li> <li>Simulazioni end-to-end per strumenti come MORFEO/MICADO </li> <li>Sviluppo di pipeline modulari </li> <li>Documentazione e divulgazione </li> </ul> <p>Scopri di pi\u00f9 nelle sezioni del sito \ud83c\udfaf Generato automaticamente in gitlab credits carmelo arcidiacono data 30/11/2025</p>"},{"location":"about/","title":"About MASTER","text":"<p>MASTER coordina attivit\u00e0 R&D su ottica adattiva, PSF-R, post-processing di immagini e simulazioni per strumenti ELT & altri telescopi. Il gruppo mira a favorire la riproducibilit\u00e0, la condivisione di metodi e il trasferimento tecnologico all\u2019interno della comunit\u00e0 INAF. </p> <p>Contatti: nome.cognome@inaf.it </p>"},{"location":"publications/","title":"Publications & Reports","text":"<p>Qui potremmo raccogliere le pubblicazioni scientifiche, i report tecnici, i deliverable ufficiali del gruppo MASTER e i link ai repository correlati. </p> <p>(pagina da aggiornare con contenuti reali)</p>"},{"location":"software/","title":"Software","text":"<p>Questa sezione raccoglie i software open-source sviluppati da MASTER, insieme a documentazione, esempi e pipeline associate.</p>"},{"location":"workpackages/","title":"Workpackages","text":"<p>Elenco dei principali Work Packages del gruppo MASTER:</p> <ul> <li>WP3301 \u2014 Computing & PSF-R </li> <li>WP3405 \u2014 Pipelines & Validation </li> <li>PSF Reconstruction </li> </ul>"},{"location":"workpackages/wp3301/","title":"WP3301 \u2014 Computing & PSF Reconstruction","text":""},{"location":"workpackages/wp3301/#obiettivo-generale","title":"Obiettivo generale","text":"<p>WP3301 ha come obiettivo lo sviluppo e la gestione dell\u2019infrastruttura computazionale e del software per la ricostruzione della PSF (PSF-R, Point Spread Function Reconstruction) e per analisi post-AO. Il pacchetto di lavoro serve a garantire che le immagini e i dati ottenuti con ottica adattiva (AO) diventino scientificamente utilizzabili con qualit\u00e0 ottimale, grazie a pipeline affidabili e computazione efficiente.</p>"},{"location":"workpackages/wp3301/#attivita-principali","title":"Attivita\u0300 principali","text":"<ul> <li>Progettazione e deploy di risorse computazionali (server / HPC / storage) dedicate all\u2019elaborazione AO e PSF-R. </li> <li>Sviluppo di software PSF-R che utilizzi la telemetria AO (WFS/DM, parametri atmosferici, ecc.) per ricostruire la PSF indipendentemente dai dati scientifici. </li> <li>Validazione su dati simulati e reali (es. da test-bench AO, dati prototipo, osservazioni con instrumentazione AO) della qualit\u00e0 della ricostruzione PSF: confronto tra PSF teorica e PSF ricostruita. </li> <li>Integrazione del software PSF-R nelle pipeline di data-reduction / post-processing: formati di I/O robusti (FITS, HDF5, YAML/JSON per configurazioni), modularit\u00e0, documentazione e interoperabilit\u00e0. </li> <li>Preparazione di un sistema di archiviazione e query delle PSF ricostruite, per consentire a utenti finali di recuperare la PSF associata a ciascuna osservazione (via telemetria). </li> <li>Supporto operativo e manutenzione: test automatici, validazione cross-strumenti, ottimizzazione prestazioni (parallelizzazione, uso GPU se disponibile), user support e training.</li> </ul>"},{"location":"workpackages/wp3301/#risultati-attesi-deliverable","title":"Risultati attesi / Deliverable","text":"<ul> <li>Una suite software PSF-R stabile, documentata e versionata (repository di codice, modulare, open-source o accesso facilitato). </li> <li>Infrastruttura computazionale configurata e operativa (server/HPC, storage, ambienti di esecuzione). </li> <li>Una libreria di PSF ricostruite a partire da telemetria AO, con strumenti di query e recupero per uso scientifico. </li> <li>Validazione dimostrativa su dataset reali e simulati, con report tecnico e procedure di test/retest. </li> <li>Pipeline integrata per post-processing immagini + correzione PSF, utilizzabile per strumentazione attuale e futura.</li> </ul>"},{"location":"workpackages/wp3301/#motivazione-scientifica-contesto","title":"Motivazione scientifica / contesto","text":"<p>La tecnica di PSF reconstruction in AO permette di ottenere una PSF strettamente legata alle condizioni operative (telemetria, condizioni atmosferiche, configurazione AO) invece di usare PSF \u201cstandard\u201d. Questo incrementa drasticamente la precisione nella fotometria e nella morfologia \u2014 elemento fondamentale per i grandi telescopi di nuova generazione (ELT, MICADO, ecc.). </p>"},{"location":"workpackages/wp3301/#ruoli-e-responsabilita","title":"Ruoli e responsabilita\u0300","text":"<ul> <li>Team di sviluppo software: progettazione, codifica, test del software PSF-R. </li> <li>Team infrastrutture: installazione e gestione di risorse computazionali / storage / rete. </li> <li>Team validazione e test: esecuzione di test su dati simulati e dati reali, analisi dei risultati, validazione qualit\u00e0 PSF. </li> <li>Documentazione & supporto: manuali utenti, API docs, formazione interna, gestione issue/bug. </li> </ul>"},{"location":"workpackages/wp3405/","title":"WP3405 \u2014 Data Reduction & Workflow Pipelines","text":""},{"location":"workpackages/wp3405/#obiettivo-generale","title":"Obiettivo generale","text":"<p>WP3405 ha come obiettivo la progettazione, implementazione e gestione di pipeline di riduzione dati e flussi di lavoro (workflows) per l\u2019elaborazione dei dati acquisiti, dalla fase raw all\u2019output scientifico finale. L\u2019obiettivo \u00e8 garantire che i dati grezzi diventino prodotti scientificamente validi, mantenendo traccia della provenienza (provenance), della configurazione e dei parametri di riduzione, in modo riproducibile e documentato.</p>"},{"location":"workpackages/wp3405/#attivita-principali","title":"Attivit\u00e0 principali","text":"<ul> <li>Definizione dei requisiti per le pipeline di riduzione dati e dei casi d\u2019uso supportati (tipi di dati, modalit\u00e0 osservativa, telemetria, metadata, calibrazioni, ecc.). </li> <li>Progettazione dell\u2019architettura software per la pipeline: moduli di pre-processing, calibrazione, correzione, validazione qualit\u00e0, generazione output formattato (immagini, tabelle, log, metadata). </li> <li>Implementazione dei moduli software in linguaggio appropriato (Python, C/C++, o altro), con gestione modulare e configurazione flessibile. </li> <li>Integrazione di un sistema di gestione dei parametri e della provenienza \u2014 inclusa la registrazione di metadati, versioning delle configurazioni, log di esecuzione, e tracciabilit\u00e0 dei dati. </li> <li>Validazione su dataset simulati e reali: esecuzione pipeline, confronto output rispetto a standard di riferimento, stesura di report di validazione e test di regressione. </li> <li>Automazione del workflow: creazione di script o tool di orchestration che permettano esecuzioni batch e ripetibili, monitoraggio degli stati di elaborazione, reportistica e gestione errori. </li> <li>Documentazione completa: manuali utente, guida per i developer, template di configurazione, esempi d\u2019uso, protocolli di test e validazione. </li> </ul>"},{"location":"workpackages/wp3405/#risultati-attesi-deliverable","title":"Risultati attesi / Deliverable","text":"<ul> <li>Repository software della pipeline, con codice modulare, documentazione e test di base. </li> <li>Un set di pipeline validato su esempi reali e simulati, con output verificati qualit\u00e0, pronto per uso scientifico. </li> <li>Una procedura standard per la riduzione dati: descrizione dei passaggi, configurazioni, parametri, formati in/output. </li> <li>Report di validazione e benchmarking, con confronto risultati, indicazione di limiti e best-practice. </li> <li>Un meccanismo di tracciabilit\u00e0 dei dati e delle configurazioni (metadati, log, versioning), per garantire riproducibilit\u00e0 e coerenza nei risultati. </li> <li>Documentazione per utenti e developer, con guide all\u2019installazione, all\u2019uso, e all\u2019extension della pipeline. </li> </ul>"},{"location":"workpackages/wp3405/#motivazione-scientifica-contesto","title":"Motivazione scientifica / contesto","text":"<p>Nell\u2019era dei grandi dataset e delle osservazioni complesse \u2014 in ottica adattiva, telescopi moderni, strumentazioni avanzate \u2014 \u00e8 fondamentale disporre di pipeline di riduzione automatizzate, robuste e riproducibili. Un approccio manuale non garantisce riproducibilit\u00e0, qualit\u00e0 costante n\u00e9 efficienza. WP3405 assicura che la riduzione dati sia sistematica, tracciabile e verificabile, e permette di scalare l\u2019analisi su molte osservazioni in modo coerente, con documentazione e metadata completi.</p>"},{"location":"workpackages/wp3405/#ruoli-e-responsabilita","title":"Ruoli e responsabilit\u00e0","text":"<ul> <li>Team sviluppo software: implementazione moduli pipeline, test, manutenzione codice. </li> <li>Team validazione / test: esecuzione pipeline su dataset di prova, analisi risultati, report di qualit\u00e0. </li> <li>Team configurazione & gestione dati: definizione del formato dati, metadati, gestione storage, tracciabilit\u00e0 dati. </li> <li>Documentazione & supporto: preparazione manuali, guida utente, esempi, formazione interna, supporto a utenti finali. </li> </ul>"}]}
No newline at end of file
{"config":{"lang":["en"],"separator":"[\\s\\-]+","pipeline":["stopWordFilter"],"fields":{"title":{"boost":1000.0},"text":{"boost":1.0},"tags":{"boost":1000000.0}}},"docs":[{"location":"","title":"MASTER \u2014 Math, ASTronomy & Research","text":"<p>Benvenuti nel sito ufficiale del gruppo di lavoro MASTER, dedicato allo sviluppo di algoritmi e pipeline per l\u2019ottica adattiva e l\u2019imaging ad alta risoluzione.</p> <p>Le nostre attivit\u00e0 includono cose del tipo:</p> <ul> <li>Ricostruzione PSF (PSF-R) </li> <li>Post-processing di immagini AO </li> <li>Simulazioni end-to-end per strumenti come MORFEO/MICADO </li> <li>Sviluppo di pipeline modulari </li> <li>Documentazione e divulgazione </li> </ul> <p>Scopri di pi\u00f9 nelle sezioni del sito \ud83c\udfaf Forse generato automaticamente in gitlab</p> <p>credits carmelo arcidiacono</p> <p>data 30/11/2025</p>"},{"location":"about/","title":"About MASTER","text":"<p>MASTER coordina attivit\u00e0 R&D su ottica adattiva, PSF-R, post-processing di immagini e simulazioni per strumenti ELT & altri telescopi. Il gruppo mira a favorire la riproducibilit\u00e0, la condivisione di metodi e il trasferimento tecnologico all\u2019interno della comunit\u00e0 INAF. </p> <p>Contatti: nome.cognome@inaf.it </p>"},{"location":"publications/","title":"Publications & Reports","text":"<p>Qui potremmo raccogliere le pubblicazioni scientifiche, i report tecnici, i deliverable ufficiali del gruppo MASTER e i link ai repository correlati. </p> <p>(pagina da aggiornare con contenuti reali)</p>"},{"location":"software/","title":"Software","text":"<p>Questa sezione raccoglie i software open-source sviluppati da MASTER, insieme a documentazione, esempi e pipeline associate.</p>"},{"location":"workpackages/","title":"Workpackages","text":"<p>Elenco dei principali Work Packages del gruppo MASTER:</p> <ul> <li>WP3301 \u2014 Computing & PSF-R </li> <li>WP3405 \u2014 Pipelines & Validation </li> <li>PSF Reconstruction </li> </ul>"},{"location":"workpackages/wp3301/","title":"WP3301 \u2014 Computing & PSF Reconstruction","text":""},{"location":"workpackages/wp3301/#obiettivo-generale","title":"Obiettivo generale","text":"<p>WP3301 ha come obiettivo lo sviluppo e la gestione dell\u2019infrastruttura computazionale e del software per la ricostruzione della PSF (PSF-R, Point Spread Function Reconstruction) e per analisi post-AO. Il pacchetto di lavoro serve a garantire che le immagini e i dati ottenuti con ottica adattiva (AO) diventino scientificamente utilizzabili con qualit\u00e0 ottimale, grazie a pipeline affidabili e computazione efficiente.</p>"},{"location":"workpackages/wp3301/#attivita-principali","title":"Attivita\u0300 principali","text":"<ul> <li>Progettazione e deploy di risorse computazionali (server / HPC / storage) dedicate all\u2019elaborazione AO e PSF-R. </li> <li>Sviluppo di software PSF-R che utilizzi la telemetria AO (WFS/DM, parametri atmosferici, ecc.) per ricostruire la PSF indipendentemente dai dati scientifici. </li> <li>Validazione su dati simulati e reali (es. da test-bench AO, dati prototipo, osservazioni con instrumentazione AO) della qualit\u00e0 della ricostruzione PSF: confronto tra PSF teorica e PSF ricostruita. </li> <li>Integrazione del software PSF-R nelle pipeline di data-reduction / post-processing: formati di I/O robusti (FITS, HDF5, YAML/JSON per configurazioni), modularit\u00e0, documentazione e interoperabilit\u00e0. </li> <li>Preparazione di un sistema di archiviazione e query delle PSF ricostruite, per consentire a utenti finali di recuperare la PSF associata a ciascuna osservazione (via telemetria). </li> <li>Supporto operativo e manutenzione: test automatici, validazione cross-strumenti, ottimizzazione prestazioni (parallelizzazione, uso GPU se disponibile), user support e training.</li> </ul>"},{"location":"workpackages/wp3301/#risultati-attesi-deliverable","title":"Risultati attesi / Deliverable","text":"<ul> <li>Una suite software PSF-R stabile, documentata e versionata (repository di codice, modulare, open-source o accesso facilitato). </li> <li>Infrastruttura computazionale configurata e operativa (server/HPC, storage, ambienti di esecuzione). </li> <li>Una libreria di PSF ricostruite a partire da telemetria AO, con strumenti di query e recupero per uso scientifico. </li> <li>Validazione dimostrativa su dataset reali e simulati, con report tecnico e procedure di test/retest. </li> <li>Pipeline integrata per post-processing immagini + correzione PSF, utilizzabile per strumentazione attuale e futura.</li> </ul>"},{"location":"workpackages/wp3301/#motivazione-scientifica-contesto","title":"Motivazione scientifica / contesto","text":"<p>La tecnica di PSF reconstruction in AO permette di ottenere una PSF strettamente legata alle condizioni operative (telemetria, condizioni atmosferiche, configurazione AO) invece di usare PSF \u201cstandard\u201d. Questo incrementa drasticamente la precisione nella fotometria e nella morfologia \u2014 elemento fondamentale per i grandi telescopi di nuova generazione (ELT, MICADO, ecc.). </p>"},{"location":"workpackages/wp3301/#ruoli-e-responsabilita","title":"Ruoli e responsabilita\u0300","text":"<ul> <li>Team di sviluppo software: progettazione, codifica, test del software PSF-R. </li> <li>Team infrastrutture: installazione e gestione di risorse computazionali / storage / rete. </li> <li>Team validazione e test: esecuzione di test su dati simulati e dati reali, analisi dei risultati, validazione qualit\u00e0 PSF. </li> <li>Documentazione & supporto: manuali utenti, API docs, formazione interna, gestione issue/bug. </li> </ul>"},{"location":"workpackages/wp3405/","title":"WP3405 \u2014 Data Reduction & Workflow Pipelines","text":""},{"location":"workpackages/wp3405/#obiettivo-generale","title":"Obiettivo generale","text":"<p>WP3405 ha come obiettivo la progettazione, implementazione e gestione di pipeline di riduzione dati e flussi di lavoro (workflows) per l\u2019elaborazione dei dati acquisiti, dalla fase raw all\u2019output scientifico finale. L\u2019obiettivo \u00e8 garantire che i dati grezzi diventino prodotti scientificamente validi, mantenendo traccia della provenienza (provenance), della configurazione e dei parametri di riduzione, in modo riproducibile e documentato.</p>"},{"location":"workpackages/wp3405/#attivita-principali","title":"Attivit\u00e0 principali","text":"<ul> <li>Definizione dei requisiti per le pipeline di riduzione dati e dei casi d\u2019uso supportati (tipi di dati, modalit\u00e0 osservativa, telemetria, metadata, calibrazioni, ecc.). </li> <li>Progettazione dell\u2019architettura software per la pipeline: moduli di pre-processing, calibrazione, correzione, validazione qualit\u00e0, generazione output formattato (immagini, tabelle, log, metadata). </li> <li>Implementazione dei moduli software in linguaggio appropriato (Python, C/C++, o altro), con gestione modulare e configurazione flessibile. </li> <li>Integrazione di un sistema di gestione dei parametri e della provenienza \u2014 inclusa la registrazione di metadati, versioning delle configurazioni, log di esecuzione, e tracciabilit\u00e0 dei dati. </li> <li>Validazione su dataset simulati e reali: esecuzione pipeline, confronto output rispetto a standard di riferimento, stesura di report di validazione e test di regressione. </li> <li>Automazione del workflow: creazione di script o tool di orchestration che permettano esecuzioni batch e ripetibili, monitoraggio degli stati di elaborazione, reportistica e gestione errori. </li> <li>Documentazione completa: manuali utente, guida per i developer, template di configurazione, esempi d\u2019uso, protocolli di test e validazione. </li> </ul>"},{"location":"workpackages/wp3405/#risultati-attesi-deliverable","title":"Risultati attesi / Deliverable","text":"<ul> <li>Repository software della pipeline, con codice modulare, documentazione e test di base. </li> <li>Un set di pipeline validato su esempi reali e simulati, con output verificati qualit\u00e0, pronto per uso scientifico. </li> <li>Una procedura standard per la riduzione dati: descrizione dei passaggi, configurazioni, parametri, formati in/output. </li> <li>Report di validazione e benchmarking, con confronto risultati, indicazione di limiti e best-practice. </li> <li>Un meccanismo di tracciabilit\u00e0 dei dati e delle configurazioni (metadati, log, versioning), per garantire riproducibilit\u00e0 e coerenza nei risultati. </li> <li>Documentazione per utenti e developer, con guide all\u2019installazione, all\u2019uso, e all\u2019extension della pipeline. </li> </ul>"},{"location":"workpackages/wp3405/#motivazione-scientifica-contesto","title":"Motivazione scientifica / contesto","text":"<p>Nell\u2019era dei grandi dataset e delle osservazioni complesse \u2014 in ottica adattiva, telescopi moderni, strumentazioni avanzate \u2014 \u00e8 fondamentale disporre di pipeline di riduzione automatizzate, robuste e riproducibili. Un approccio manuale non garantisce riproducibilit\u00e0, qualit\u00e0 costante n\u00e9 efficienza. WP3405 assicura che la riduzione dati sia sistematica, tracciabile e verificabile, e permette di scalare l\u2019analisi su molte osservazioni in modo coerente, con documentazione e metadata completi.</p>"},{"location":"workpackages/wp3405/#ruoli-e-responsabilita","title":"Ruoli e responsabilit\u00e0","text":"<ul> <li>Team sviluppo software: implementazione moduli pipeline, test, manutenzione codice. </li> <li>Team validazione / test: esecuzione pipeline su dataset di prova, analisi risultati, report di qualit\u00e0. </li> <li>Team configurazione & gestione dati: definizione del formato dati, metadati, gestione storage, tracciabilit\u00e0 dati. </li> <li>Documentazione & supporto: preparazione manuali, guida utente, esempi, formazione interna, supporto a utenti finali. </li> </ul>"}]}