Il comportamento di faking è un problema trasversale che riguarda la ricerca sul comportamento umano in molti contesti quali la psicologia (Hopwood, Talbert, Morey, & Rogers, 2008), le scienze sociali (Van der Geest & Sarkodie, 1998) ed economiche (Crawford, 2003), la psichiatria (Beaber, Marston, Michelli, & Mills, 1985), la medicina forense (Gray, MacCulloch, Smith, Morris, & Snowden, 2003) e le frodi scientifiche (Marshall, 2000). Esso è un problema importante sia perché va ad alterare l’affidabilità di un test quando lo si usa per le decisioni in ambito inferenziale, sia perché i dati così raccolti perdono di validità e quindi le relazioni tra variabili misurate perdono di significato. Diversi studi hanno dimostrato che istruendo a dovere i partecipanti a un questionario, essi sono in grado di modificare le risposte fornendo risposte più estreme (es, Furnham, 1986; Hesketh, Griffin, & Grayson, 2004; McFarland & Ryan, 2000; Viswesvaran & Ones, 1999). Gli effetti conosciuti del faking da un punto di vista psicometrico agiscono sulla struttura della covarianza delle scale distorte. Generalmente si è visto che i punteggi che hanno subito una manipolazione da faking, in una situazione in cui i soggetti venivano motivati, tendono ad avere una varianza più piccola e una minore affidabilità (Eysenck, Eysenck, & Shaw, 1974; Topping & O’Gorman, 1997; Ellingson, Smith, & Sackett, 2001; Hesketh et al., 2004). Allo stesso tempo però è stato osservato che quando è stato chiesto ai soggetti di mentire intenzionalmente, questo aumenta il grado di covariazione tra gli item manipolati (Ellingson, Sackett, & Hough, 1999; Gali?, Jernei?, & Kova?i?, 2012; Pauls & Crost, 2005; Zickar & Robie, 1999; Ziegler & Buehner, 2009). Il lavoro del capitolo 3 è stato il primo a iniziare e a essere terminato esso ci ha permesso di risollevare il problema dell’identificazione dei fakers e di definire quale riteniamo essere la motivazione principale della poca efficienza degli indici di fit individuale (PFS), cioè una non discriminazione tra i fakers e gli onesti sulla base della likelihood. Le somiglianze con altri tipi di manipolazioni contenute nella parte di review contenuta nello stesso capitolo (par. 3.2) ci hanno dato conferma, almeno a nostro avviso, che l’SGR si inserisce di diritto all’interno delle manipolazioni dei dati. Oltretutto non si limita al faking, consideriamo il faking solo uno dei possibili impieghi, basta utilizzare un adeguato modello manipolativo a seconda della specifica situazione. Se da un lato la simulazione per individuare i fakers è stata piuttosto robusta e approfondita (par. 3.3), dall’altro la parte conclusiva riguardo lo studio della likelihood (par. 3.4), purtroppo, è stata trattata più velocemente solo attraverso esempi e la generalizzazione a tutti i questionari solo dedotta. Probabilmente sarebbe interessante approfondire quella sezione per farla diventare un robusto lavoro indipendente. Nella stesura della simulazione era già emerso il concetto della mixture, cioè che il comportamento del mentitore sia coerente all’interno del pattern di risposte e che il campione si suddivida in sinceri e fakers, ma non ulteriormente formalizzato. La situazione migliore per il mentitore è quando mente su quasi la totalità degli item, cercando di creare pattern menzogneri, ma coerenti e questo comportamento gli crea un vantaggio nel non essere identificato (figure da 3.1 a 3.4) rispetto al mentire solo a metà degli item. Rimanendo però con l’idea della non-indipendenza tra item, con l’obiettivo di innovare l’utilizzo della struttura SGR fino a quel momento utilizzata, ci siamo resi conto che un questionario di molti item è difficile da analizzare perché le combinazioni di risposte sono esponenziali al numero di item. Quindi abbiamo scelto di ricominciare il percorso analitico da due item per non perdere il nostro assunto di interdipendenza nelle risposte. La decisione di questo "passo indietro" si è mostrata vincente perché ci avrebbe successivamente permesso l’esplorazione matematica delle distribuzioni di probabilità nel caso bivariato. Purtroppo resta ancora difficile applicare le formule (cap. 4) a casi reali per la difficoltà a ipotizzare i veri modelli di manipolazione e la quantità di soggetti faker, ad esempio, per cercare di ricostruire i dati originali (formula 4.16). Nonostante i limiti empirici a livello campionario, lo studio matematico ha permesso lo studio a livello di popolazione e mostrare che gli effetti del faking possono diventare facilmente invasivi nell’esisto di una ricerca gonfiando o diminuendo correlazioni o, addirittura, invertendone il segno. In particolare, i nostri risultati si possono sovrapporre, almeno parzialmente, a quelli di Loken e Gelman (2017). Nell’articolo gli autori parlano di errore casuale di misura, il quale può modificare la dimensione dell’effetto principale, anche accentuandolo nei piccoli campioni. Siamo arrivati a conclusioni simili quasi contemporaneamente; anzi il nostro tipo di “errore” di misura è più evoluto e rappresenta un comportamento complesso, strategico e non indipendente (attraverso gli item) dei soggetti. In particolare gli autori ci servono su un piatto d’argento la giustificazione di tutte le ore di lavoro che abbiamo dedicato a questo progetto: "The situation become more complicated in problems with multiple predictors, or with nonindependent error " (pg. 585). Il faking potrebbe essere, appunto, un esempio di errore non-indipendende. Ovviamente buoni presupposti non sono garanzia di un ottimo risultato, ma sono almeno un buon punto di partenza.
Mixture SGR: un nuovo paradigma nella gestione delle manipolazioni di dati self report / Bressan, Marco. - (2018), pp. 1-103.
Mixture SGR: un nuovo paradigma nella gestione delle manipolazioni di dati self report
Bressan, Marco
2018-01-01
Abstract
Il comportamento di faking è un problema trasversale che riguarda la ricerca sul comportamento umano in molti contesti quali la psicologia (Hopwood, Talbert, Morey, & Rogers, 2008), le scienze sociali (Van der Geest & Sarkodie, 1998) ed economiche (Crawford, 2003), la psichiatria (Beaber, Marston, Michelli, & Mills, 1985), la medicina forense (Gray, MacCulloch, Smith, Morris, & Snowden, 2003) e le frodi scientifiche (Marshall, 2000). Esso è un problema importante sia perché va ad alterare l’affidabilità di un test quando lo si usa per le decisioni in ambito inferenziale, sia perché i dati così raccolti perdono di validità e quindi le relazioni tra variabili misurate perdono di significato. Diversi studi hanno dimostrato che istruendo a dovere i partecipanti a un questionario, essi sono in grado di modificare le risposte fornendo risposte più estreme (es, Furnham, 1986; Hesketh, Griffin, & Grayson, 2004; McFarland & Ryan, 2000; Viswesvaran & Ones, 1999). Gli effetti conosciuti del faking da un punto di vista psicometrico agiscono sulla struttura della covarianza delle scale distorte. Generalmente si è visto che i punteggi che hanno subito una manipolazione da faking, in una situazione in cui i soggetti venivano motivati, tendono ad avere una varianza più piccola e una minore affidabilità (Eysenck, Eysenck, & Shaw, 1974; Topping & O’Gorman, 1997; Ellingson, Smith, & Sackett, 2001; Hesketh et al., 2004). Allo stesso tempo però è stato osservato che quando è stato chiesto ai soggetti di mentire intenzionalmente, questo aumenta il grado di covariazione tra gli item manipolati (Ellingson, Sackett, & Hough, 1999; Gali?, Jernei?, & Kova?i?, 2012; Pauls & Crost, 2005; Zickar & Robie, 1999; Ziegler & Buehner, 2009). Il lavoro del capitolo 3 è stato il primo a iniziare e a essere terminato esso ci ha permesso di risollevare il problema dell’identificazione dei fakers e di definire quale riteniamo essere la motivazione principale della poca efficienza degli indici di fit individuale (PFS), cioè una non discriminazione tra i fakers e gli onesti sulla base della likelihood. Le somiglianze con altri tipi di manipolazioni contenute nella parte di review contenuta nello stesso capitolo (par. 3.2) ci hanno dato conferma, almeno a nostro avviso, che l’SGR si inserisce di diritto all’interno delle manipolazioni dei dati. Oltretutto non si limita al faking, consideriamo il faking solo uno dei possibili impieghi, basta utilizzare un adeguato modello manipolativo a seconda della specifica situazione. Se da un lato la simulazione per individuare i fakers è stata piuttosto robusta e approfondita (par. 3.3), dall’altro la parte conclusiva riguardo lo studio della likelihood (par. 3.4), purtroppo, è stata trattata più velocemente solo attraverso esempi e la generalizzazione a tutti i questionari solo dedotta. Probabilmente sarebbe interessante approfondire quella sezione per farla diventare un robusto lavoro indipendente. Nella stesura della simulazione era già emerso il concetto della mixture, cioè che il comportamento del mentitore sia coerente all’interno del pattern di risposte e che il campione si suddivida in sinceri e fakers, ma non ulteriormente formalizzato. La situazione migliore per il mentitore è quando mente su quasi la totalità degli item, cercando di creare pattern menzogneri, ma coerenti e questo comportamento gli crea un vantaggio nel non essere identificato (figure da 3.1 a 3.4) rispetto al mentire solo a metà degli item. Rimanendo però con l’idea della non-indipendenza tra item, con l’obiettivo di innovare l’utilizzo della struttura SGR fino a quel momento utilizzata, ci siamo resi conto che un questionario di molti item è difficile da analizzare perché le combinazioni di risposte sono esponenziali al numero di item. Quindi abbiamo scelto di ricominciare il percorso analitico da due item per non perdere il nostro assunto di interdipendenza nelle risposte. La decisione di questo "passo indietro" si è mostrata vincente perché ci avrebbe successivamente permesso l’esplorazione matematica delle distribuzioni di probabilità nel caso bivariato. Purtroppo resta ancora difficile applicare le formule (cap. 4) a casi reali per la difficoltà a ipotizzare i veri modelli di manipolazione e la quantità di soggetti faker, ad esempio, per cercare di ricostruire i dati originali (formula 4.16). Nonostante i limiti empirici a livello campionario, lo studio matematico ha permesso lo studio a livello di popolazione e mostrare che gli effetti del faking possono diventare facilmente invasivi nell’esisto di una ricerca gonfiando o diminuendo correlazioni o, addirittura, invertendone il segno. In particolare, i nostri risultati si possono sovrapporre, almeno parzialmente, a quelli di Loken e Gelman (2017). Nell’articolo gli autori parlano di errore casuale di misura, il quale può modificare la dimensione dell’effetto principale, anche accentuandolo nei piccoli campioni. Siamo arrivati a conclusioni simili quasi contemporaneamente; anzi il nostro tipo di “errore” di misura è più evoluto e rappresenta un comportamento complesso, strategico e non indipendente (attraverso gli item) dei soggetti. In particolare gli autori ci servono su un piatto d’argento la giustificazione di tutte le ore di lavoro che abbiamo dedicato a questo progetto: "The situation become more complicated in problems with multiple predictors, or with nonindependent error " (pg. 585). Il faking potrebbe essere, appunto, un esempio di errore non-indipendende. Ovviamente buoni presupposti non sono garanzia di un ottimo risultato, ma sono almeno un buon punto di partenza.File | Dimensione | Formato | |
---|---|---|---|
Tesi_Bressan_-_Mixture_SGR.pdf
Solo gestori archivio
Tipologia:
Tesi di dottorato (Doctoral Thesis)
Licenza:
Tutti i diritti riservati (All rights reserved)
Dimensione
2.25 MB
Formato
Adobe PDF
|
2.25 MB | Adobe PDF | Visualizza/Apri |
Disclaimer_Bressan.pdf
Solo gestori archivio
Tipologia:
Tesi di dottorato (Doctoral Thesis)
Licenza:
Tutti i diritti riservati (All rights reserved)
Dimensione
321.57 kB
Formato
Adobe PDF
|
321.57 kB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione