METODOLOGIA PASCA 65-69
|
|
Titolo del test:
![]() METODOLOGIA PASCA 65-69 Descrizione: METODOLOGIA PASCA |



| Nuovo commento |
|---|
NESSUN RECORD |
|
Che cosa rappresenta ciascun asse della 'data box' di Cattell?. n = numero di condizioni, v = valore, t = trial. n = soggetti, v = variabili, t = tempo/occasioni di osservazione. n = normalità dei dati, v = variabilità statistica, t = trattamento. n = numero di esperimenti, v = varianza, t = tipo di test. Qual è la principale implicazione metodologica dell’espansione della 'data box' di Cattell nell’era dei Big Data?. La possibilità di analizzare simultaneamente grandi campioni, molte variabili e osservazioni continue nel tempo. La sostituzione del metodo teorico con analisi automatizzate. L’eliminazione del controllo sperimentale in favore dell’osservazione naturale. La riduzione della complessità metodologica grazie all’automazione. Che cosa caratterizza l’approccio theory-driven?. Partire dalla teoria per formulare ipotesi da verificare empiricamente. Derivare la teoria direttamente dal dato senza ipotesi. Basarsi solo sull’osservazione naturale. Analizzare i dati senza riferimenti teorici. Quale delle seguenti è una dimensione della data box di Cattell?. c = contesto sperimentale. e = errori di misura. f = frequenza statistica. n = numero di soggetti. Che cosa rappresenta ciascun asse della 'data box' di Cattell?. n = numero di esperimenti, v = varianza, t = tipo di test. n = numero di condizioni, v = valore, t = trial. n = soggetti, v = variabili, t = tempo/occasioni di osservazione. n = normalità dei dati, v = variabilità statistica, t = trattamento. La ricerca data-driven si distingue da quella theory-driven perché: Esclude completamente l’uso di ipotesi teoriche. Si basa solo su analisi esplorative senza modelli. Entra nel ciclo scientifico a partire dai dati anziché dalla teoria. Richiede meno rigore metodologico. Quale delle seguenti affermazioni descrive correttamente la logica del metodo scientifico classico?. Una sequenza lineare di ipotesi e verifica. Un metodo basato esclusivamente sulla deduzione. Un processo ciclico basato su deduzione e induzione. Un metodo puramente empirico senza teoria. Che cosa si intende per Big Behavioral Data?. Solo i dati provenienti dai social network. Tracce comportamentali registrate digitalmente in modo continuo e naturale. Osservazioni occasionali effettuate in laboratorio. Dati raccolti tramite interviste e autovalutazioni. Perché i big-data trasformano la struttura tradizionale della data box?. Perché ampliano simultaneamente n, v e t, creando nuove configurazioni di disegno di ricerca. Perché riducono la complessità metodologica. Perché sostituiscono la misurazione con l’osservazione casuale. Perché eliminano il ruolo della teoria. La dimensione “Volume” delle 5 V corrisponde a: Varietà delle forme di dato. Qualità epistemica del dato. Quantità di dati o unità osservate. Frequenza temporale di misurazione. Perché la dimensione “Velocità” rappresenta una discontinuità metodologica?. Perché costringe a usare solo disegni di ricerca longitudinali. Perché elimina l’uso di indicatori multipli. Perché introduce rilevazioni continue e ad alta frequenza, trasformando l’osservazione dei processi psicologici. Perché costringe a usare solo disegni di ricerca trasversali. Che cosa distingue i big behavioral data dai dati tradizionali?. Rappresentano sempre misure fisiologiche. Dipendono da autovalutazioni. Sono prodotti spontaneamente dalle attività digitali quotidiane. Sono raccolti solo in laboratorio. Che cosa implica la “Varietà” dei big-data?. Che il dato perde significato psicologico. Che il ricercatore deve ignorare la teoria. Che il dato è esclusivamente numerico. Che il dato non nasce più come misura unica ma può assumere forme eterogenee (testo, immagini, movimenti, fisiologia). Per ridurre l'effetto Hawthorne è necessario: aumentare il numero di sedute. aumentare l'ampiezza campionaria. adottare il metodo del singolo cieco. fare in modo che il soggetto sappia che sta partecipando alla ricerca. Qual è un limite principale dei dati self-report?. Riflettono percezioni soggettive, non comportamenti reali. Non possono essere standardizzati. Non possono misurare tratti psicologici. Sono troppo costosi. Perché la veridicità non coincide automaticamente con validità scientifica?. Perché il dato digitale, pur essendo reale, necessita di essere interpretato e collegato al costrutto psicologico. Perché i big-data sono sempre incompleti. Perché i dati digitali non possono essere affidabili. Perché i dati spontanei non sono analizzabili statisticamente. Qual è la caratteristica del web-scraping theory-driven?. Estrarre dati senza alcun orientamento teorico. Eliminare la necessità di validare gli indicatori. Generare variabili casuali dai siti web. Collegare gli indicatori digitali a un costrutto teorico definito. Quale vantaggio metodologico deriva dai grandi campioni digitali?. Eliminazione del bisogno di interpretazione teorica. Raccolta esclusiva di dati soggettivi. Migliore controllo sperimentale. Riduzione di drop-out e bias di autoselezione. Che cosa indica la “Veridicità” nei big-data?. Eterogeneità del dato. Numerosità campionaria. La qualità epistemica del dato, ovvero la sua attendibilità e coerenza con il fenomeno psicologico. Quantità di dati o unità osservate. Perché i big-data sono considerati ecologicamente validi?. Perché sono sempre rappresentativi della popolazione da cui sono estratti. Perché sono privi di rumore. Perché derivano da comportamenti reali prodotti in contesti quotidiani. Perché sono sempre raccolti in laboratorio. Perché una grande quantità di dati non garantisce automaticamente valore scientifico?. Perché senza un modello teorico i dati restano informazione grezza. Perché i big data non possono essere analizzati statisticamente. Perché i big data sono sempre rumorosi. Perché i big data non sono replicabili. A cosa si riferisce la dimensione “Valore” dei big data?. Alla loro attendibilità statistica. Alla quantità totale dei dati raccolti. Alla velocità di acquisizione dei dati. Alla capacità dei dati di produrre conoscenza utile. Quale ruolo ha la teoria nella trasformazione del dato in valore psicologico?. Viene sostituita dagli algoritmi. Serve solo nella fase di raccolta. Fornisce il criterio interpretativo dei pattern osservati. È opzionale nei big data. Che cosa rappresenta una matrice utenti × like nelle ricerche sui big data?. Una scala di personalità. Un test psicologico standardizzato. Un questionario di autovalutazione. Una struttura che organizza comportamenti digitali osservabili. Perché le tecniche di riduzione della dimensionalità sono centrali per estrarre valore dai big data?. Perché permettono di individuare pattern latenti significativi. Perché sostituiscono la teoria. Perché riducono la dimensione del campione. Perché eliminano completamente il rumore. Perché il valore non coincide automaticamente con il volume dei dati?. Perché il valore dipende solo dalla varietà. Perché piccole quantità di dati sono solitamente più rilevanti per la domanda di ricerca. Perché grandi quantità di dati possono non essere rilevanti per la domanda di ricerca. Perché il volume determina sempre la qualità. Quale fattore può ridurre il valore di un dataset di grandi dimensioni?. L’uso di tecniche statistiche complesse. La presenza di variabili eterogenee. La raccolta dati tramite sistemi automatici. L’assenza di un collegamento chiaro tra le misure disponibili e i costrutti teorici di interesse. Quale ruolo ha la teoria nella trasformazione del dato in valore psicologico?. Viene sostituita dagli algoritmi. È opzionale nei big data. Fornisce il criterio interpretativo dei pattern osservati. Serve solo nella fase di raccolta. Qual era l’obiettivo delle analisi utilizzate da Cambridge Analytica?. Identificare utenti con maggiore disponibilità economica. Stimare la popolarità generale dei candidati politici. Personalizzare messaggi politici sulla base delle caratteristiche psicologiche degli individui. Misurare il livello di attività degli utenti sui social. Quale problema metodologico emerge dal caso Cambridge Analytica?. La mancanza di modelli statistici. La scarsa numerosità del campione. L’uso predittivo di dati psicologici senza consenso informato. L’assenza di strumenti digitali. Qual era l’obiettivo del microtargeting politico di Cambridge Analytica?. Validare un test psicologico. Influenzare il comportamento elettorale. Descrivere la personalità. Studiare il benessere online. Perché i dati degli amici venivano raccolti indirettamente?. Per errore di calcolo. Per decisione degli utenti. Per via delle API di Facebook e delle autorizzazioni estese. Per consenso esplicito. Che cos’era l’app myPersonality?. Un’app di Facebook per la raccolta di dati psicologici. Un test clinico validato. Un social network alternativo. Un software di analisi elettorale. Quale principio etico veniva violato nell’uso dei dati trasferiti a Cambridge Analytica?. Gli utenti potevano cancellare i loro dati in qualsiasi momento. I ricercatori utilizzavano esclusivamente dati aggregati. I dati non venivano mai modificati. I dati venivano impiegati per finalità diverse da quelle dichiarate agli utenti. Perché il modello OCEAN era centrale nel progetto?. Consentiva di prevedere il comportamento elettorale con certezza. Forniva una misura diretta delle preferenze politiche. Permetteva di stimare tratti psicologici utili alla segmentazione dei messaggi. Era l’unico modello disponibile per analizzare i dati social. Quale criticità emergeva dall’uso dei dati raccolti tramite l’app “thisisyourdigitallife”?. Venivano acquisiti dati anche da utenti che non avevano fornito alcun consenso. Gli utenti potevano modificare liberamente i propri punteggi. I dati erano troppo pochi per produrre analisi affidabili. I dati riguardavano solo informazioni pubbliche già note. Quale criticità emergeva dall’uso dei dati raccolti tramite l’app “thisisyourdigitallife”?. Venivano acquisiti dati anche da utenti che non avevano fornito alcun consenso. Gli utenti potevano modificare liberamente i propri punteggi. I dati riguardavano solo informazioni pubbliche già note. I dati erano troppo pochi per produrre analisi affidabili. Quale tipo di dati veniva utilizzato per inferire tratti di personalità?. Osservazioni di laboratorio. Like e comportamenti digitali. Interviste cliniche. Questionari cartacei. |





