Attenzione: i dati modificati non sono ancora stati salvati. Per confermare inserimenti o cancellazioni di voci è necessario confermare con il tasto SALVA/INSERISCI in fondo alla pagina
IRIS
Frontotemporal dementia in genetic forms is highly heterogeneous and begins many years to prior symptom onset, complicating disease understanding and treatment development. Unifying methods to stage the disease during both the presymptomatic and symptomatic phases are needed for the development of clinical trials outcomes. Here we used the contrastive trajectory inference (cTI), an unsupervised machine learning algorithm that analyzes temporal patterns in high-dimensional large-scale population datasets to obtain individual scores of disease stage. We used cross-sectional MRI data (gray matter density, T1/T2 ratio as a proxy for myelin content, resting-state functional amplitude, gray matter fractional anisotropy, and mean diffusivity) from 383 gene carriers (269 presymptomatic and 115 symptomatic) and a control group of 253 noncarriers in the Genetic Frontotemporal Dementia Initiative. We compared the cTI-obtained disease scores to the estimated years to onset (age—mean age of onset in relatives), clinical, and neuropsychological test scores. The cTI based disease scores were correlated with all clinical and neuropsychological tests (measuring behavioral symptoms, attention, memory, language, and executive functions), with the highest contribution coming from mean diffusivity. Mean cTI scores were higher in the presymptomatic carriers than controls, indicating that the method may capture subtle pre-dementia cerebral changes, although this change was not replicated in a subset of subjects with complete data. This study provides a proof of concept that cTI can identify data-driven disease stages in a heterogeneous sample combining different mutations and disease stages of genetic FTD using only MRI metrics.
Data-driven staging of genetic frontotemporal dementia using multi-modal MRI / Mccarthy, J.; Borroni, B.; Sanchez-Valle, R.; Moreno, F.; Laforce, R.; Graff, C.; Synofzik, M.; Galimberti, D.; Rowe, J. B.; Masellis, M.; Tartaglia, M. C.; Finger, E.; Vandenberghe, R.; de Mendonca, A.; Tagliavini, F.; Santana, I.; Butler, C.; Gerhard, A.; Danek, A.; Levin, J.; Otto, M.; Frisoni, G.; Ghidoni, R.; Sorbi, S.; Jiskoot, L. C.; Seelaar, H.; van Swieten, J. C.; Rohrer, J. D.; Iturria-Medina, Y.; Ducharme, S.; Afonso, S.; Almeida, M. R.; Anderl-Straub, S.; Andersson, C.; Antonell, A.; Archetti, S.; Arighi, A.; Balasa, M.; Barandiaran, M.; Bargallo, N.; Bartha, R.; Bender, B.; Benussi, A.; Benussi, L.; Bessi, V.; Binetti, G.; Black, S.; Bocchetta, M.; Borrego-Ecija, S.; Bras, J.; Bruffaerts, R.; Canada, M.; Cantoni, V.; Caroppo, P.; Cash, D.; Castelo-Branco, M.; Convery, R.; Cope, T.; Cosseddu, M.; de Arriba, M.; Di Fede, G.; Diaz, Z.; Diez, A.; Duro, D.; Fenoglio, C.; Ferrari, C.; Ferreira, C.; Ferreira, C. B.; Flanagan, T.; Fox, N.; Freedman, M.; Fumagalli, G.; Gabilondo, A.; Gasparotti, R.; Gauthier, S.; Gazzina, S.; Giaccone, G.; Gorostidi, A.; Greaves, C.; Guerreiro, R.; Heller, C.; Hoegen, T.; Indakoetxea, B.; Jelic, V.; Karnath, H. -O.; Keren, R.; Langheinrich, T.; Leitao, M. J.; Llado, A.; Lombardi, G.; Loosli, S.; Maruta, C.; Mead, S.; Meeter, L.; Miltenberger, G.; van Minkelen, R.; Mitchell, S.; Moore, K. M.; Nacmias, B.; Neason, M.; Nicholas, J.; Oijerstedt, L.; Olives, J.; Ourselin, S.; Padovani, A.; Panman, J.; Papma, J.; Peakman, G.; Piaceri, I.; Pievani, M.; Pijnenburg, Y.; Polito, C.; Premi, E.; Prioni, S.; Prix, C.; Rademakers, R.; Redaelli, V.; Rittman, T.; Rogaeva, E.; Rosa-Neto, P.; Rossi, G.; Rossor, M.; Santiago, B.; Scarpini, E.; Schonecker, S.; Semler, E.; Shafei, R.; Shoesmith, C.; Tabuas-Pereira, M.; Tainta, M.; Taipa, R.; Tang-Wai, D.; Thomas, D. L.; Thompson, P.; Thonberg, H.; Timberlake, C.; Tiraboschi, P.; Todd, E.; Vandamme, P.; Vandenbulcke, M.; Veldsman, M.; Verdelho, A.; Villanua, J.; Warren, J.; Wilke, C.; Woollacott, I.; Wlasich, E.; Zetterberg, H.; Zulaica, M.. - In: HUMAN BRAIN MAPPING. - ISSN 1065-9471. - 43:6(2022), pp. 1821-1835. [10.1002/hbm.25727]
Data-driven staging of genetic frontotemporal dementia using multi-modal MRI
Frontotemporal dementia in genetic forms is highly heterogeneous and begins many years to prior symptom onset, complicating disease understanding and treatment development. Unifying methods to stage the disease during both the presymptomatic and symptomatic phases are needed for the development of clinical trials outcomes. Here we used the contrastive trajectory inference (cTI), an unsupervised machine learning algorithm that analyzes temporal patterns in high-dimensional large-scale population datasets to obtain individual scores of disease stage. We used cross-sectional MRI data (gray matter density, T1/T2 ratio as a proxy for myelin content, resting-state functional amplitude, gray matter fractional anisotropy, and mean diffusivity) from 383 gene carriers (269 presymptomatic and 115 symptomatic) and a control group of 253 noncarriers in the Genetic Frontotemporal Dementia Initiative. We compared the cTI-obtained disease scores to the estimated years to onset (age—mean age of onset in relatives), clinical, and neuropsychological test scores. The cTI based disease scores were correlated with all clinical and neuropsychological tests (measuring behavioral symptoms, attention, memory, language, and executive functions), with the highest contribution coming from mean diffusivity. Mean cTI scores were higher in the presymptomatic carriers than controls, indicating that the method may capture subtle pre-dementia cerebral changes, although this change was not replicated in a subset of subjects with complete data. This study provides a proof of concept that cTI can identify data-driven disease stages in a heterogeneous sample combining different mutations and disease stages of genetic FTD using only MRI metrics.
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione
Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11572/359913
Citazioni
2
3
3
social impact
Conferma cancellazione
Sei sicuro che questo prodotto debba essere cancellato?
simulazione ASN
Il report seguente simula gli indicatori relativi alla propria produzione scientifica in relazione alle soglie ASN 2023-2025 del proprio SC/SSD. Si ricorda che il superamento dei valori soglia (almeno 2 su 3) è requisito necessario ma non sufficiente al conseguimento dell'abilitazione. La simulazione si basa sui dati IRIS e sugli indicatori bibliometrici alla data indicata e non tiene conto di eventuali periodi di congedo obbligatorio, che in sede di domanda ASN danno diritto a incrementi percentuali dei valori. La simulazione può differire dall'esito di un’eventuale domanda ASN sia per errori di catalogazione e/o dati mancanti in IRIS, sia per la variabilità dei dati bibliometrici nel tempo. Si consideri che Anvur calcola i valori degli indicatori all'ultima data utile per la presentazione delle domande.
La presente simulazione è stata realizzata sulla base delle specifiche raccolte sul tavolo ER del Focus Group IRIS coordinato dall’Università di Modena e Reggio Emilia e delle regole riportate nel DM 589/2018 e allegata Tabella A. Cineca, l’Università di Modena e Reggio Emilia e il Focus Group IRIS non si assumono alcuna responsabilità in merito all’uso che il diretto interessato o terzi faranno della simulazione. Si specifica inoltre che la simulazione contiene calcoli effettuati con dati e algoritmi di pubblico dominio e deve quindi essere considerata come un mero ausilio al calcolo svolgibile manualmente o con strumenti equivalenti.