Roars (https://www.roars.it/online/vqr-la-lista-segreta-dei-120-dipartimenti-con-zero-in-pagella/) ha pubblicato le valutazioni dei Dipartimenti universitari effettuate dal MUR per l’assegnazione dei fondi d’eccellenza, mostrando, se i dati sono corretti, una spaccatura clamorosa fra nord e sud, dove molti dipartimenti hanno ricevuto un punteggio si zero centesimi. L’osservazione richiederebbe di pensare ad un aggiornamento del nostro sistema universitario, ma dopo tante riforme fatte, mi vien da pensare che sarebbe l’organo riformatore da riformare per primo.
Anch’io darei zero al mio dipartimento del Sud. Purtroppo alcuni dipartimenti al Sud, anche in ottica poi di accesso al lavoro, non hanno molto senso. Io vengo da uno di quelli. Per cui o si riprogramma tutto col Ministero dell’Educazione coadiuvato a quello del Lavoro per l’inserimento poi o questi giovani andranno ad unirsi ai NEET in attesa di un lavoro stabile con un contratto vero che non arriverà.
Niente di nuovo insomma.
Il Sud fa schifo e non potrà mai migliorare.
Il Nord è innegabilmente migliore sotto tutti i punti di vista e attrae chi potrebbe far progredire il Sud.
Emerge che 119 dipartimenti, la gran parte del Sud e delle Isole, avevano ricevuto una valutazione di 0 (zero) su 100 (ciò non significa che non si sia fatto nulla in termini di ricerca). Inoltre, 236 dipartimenti, circa un terzo, avevano ottenuto meno di 10 su 100. Dal raffronto delle due edizioni, secondo gli analisti di Roars, si desume che nel 2022 il numero di dipartimenti con meno di 10 su 100 in pagella sarebbe cresciuto arrivando intorno ai 300, il 40% del totale.
Che cosa se ne deve concludere? Secondo Giuseppe De Nicolao (statistico all’Università di Pavia) di Roars.it, “delle due l’una: se l’indicatore Ispd davvero ‘si fonda su un modello matematico solido’, Anvur e Mur hanno nascosto al Paese una catastrofica divergenza che, oltre a certificare la bancarotta scientifica di un terzo dei dipartimenti italiani, sancisce il fallimento di un decennio di riforme. Oppure, pur sapendo che Ispd è un termometro impazzito, Anvur e Miur hanno occultato i numeri che ne evidenziavano la fragilità, perché il fine di travasare risorse da Sud a Nord giustificava i mezzi, vale a dire il ricorso ad alchimie numerologiche pseudoscientifiche. In entrambi i casi, Anvur, Mur e il governo sono debitori di una risposta all’opinione pubblica”.
Quindi (a parte le ovvie divergenze tra Università e Dipartimenti) è possibile che la valutazione stessa non abbia senso a livello di definizione matematica. Del resto dal documento stesso dell’ANVUR sull’ISPD:
“ANVUR è lieta che il CUN riconosca che l’ISPD sia un indicatore adatto a formare la graduatoria dei primi 350 dipartimenti italiani (alla fine della Raccomandazione si legge infatti che “…l’indicatore scelto dall’ANVUR è coerente con l’obiettivo di formulare…”) e da parte sua condivide pienamente la preoccupazione sottesa alla Raccomandazione circa il rischio di possibili usi distorcenti degli indicatori. A più riprese ANVUR ha raccomandato di non utilizzare gli indicatori messi a punto per specifici obiettivi al di fuori del loro corretto ambito di applicazione. ANVUR ribadisce che tali usi distorcenti sono da evitare, anche a livello di Ateneo, e segnala il rischio che essi possano portare all’assunzione di decisioni non sostenute da reali elementi valutativi.” https://www.anvur.it/wp-content/uploads/2017/10/RispostaANVURaCUNsuusiISP~.pdf
Io non conosco il Sud, conosco però molti dei bandi nazionali che sono usciti negli ultimi 5/6 anni e ogni singolo bando aveva una corsia preferenziale le Regioni del Sud. Vuoi con % di finanziamento maggiori, vuoi perché il 50/60% del totale stanziato era riservato per il sud, vuoi per mille e più fattori..
Non ho idea di dove siano scomparsi tutti quei miliardi, ma mi sembra davvero chiaro che continuare ad adottare politiche uguali per il Nord e per il Sud sia controproducente. Non esiste (e non credo sia mai esistito) un piano economico NAZIONALE ma può esistere solo per area. Idem ovviamente per l’Università, che richiede politiche estremamente diverse.
Complice una pausa pranzo michael-scottiana mi sono spiluccato l’articolo originale di roars linkato sotto da OP (qui ri-linkato [https://www.roars.it/online/vqr-la-lista-segreta-dei-120-dipartimenti-con-zero-in-pagella/](https://www.roars.it/online/vqr-la-lista-segreta-dei-120-dipartimenti-con-zero-in-pagella/)) ed è una miniera d’oro, un’immersione nei paesaggi inquietanti della burocrazia italiana più pura, quella fatta di sottocommissioni, enti temporanei eterni, agenzie multiple con mandati sovrapponibili, amici di cugini di amici ecc.
“””
Oltre che essere politicamente discutibile, istituire una “gara” tra i dipartimenti solleva problemi tecnici di difficile soluzione. Per non affidarsi interamente a valutazioni discrezionali che darebbero un potere enorme agli arbitri della tenzone, si è voluto partire da una classifica “oggettiva”, basata sulla VQR, la valutazione della Qualità della Ricerca. A prima vista sembrerebbe facile usare i voti della VQR per stilare la classifica dei dipartimenti, ma in realtà ci sono due macigni che rendono l’impresa difficile, se non impossibile.
La scelta pìù naturale per dare un voto a un dipartimento sembra quella di calcolare la media dei voti, compresi tra zero e uno, che la VQR ha assegnato ai “prodotti della ricerca” presentati da quel dipartimento, il cui numero è essenzialmente proporzionale al numero di docenti afferenti al dipartimento. Tanto più la media è vicina a uno, tanto più il dipartimento sarà eccellente. Però è la stessa Anvur ad avvisare che adottare questo approccio sarebbe come sommare le mele con le pere (il grassetto è nostro):
Tra le finalità della VQR non compare il confronto della qualità della ricerca tra aree scientifiche diverse. Lo sconsigliano i parametri di giudizio e le metodologie diverse di valutazione delle comunità scientifiche all’interno di ciascuna area […] le diverse culture della valutazione, in particolare la diversa percezione delle caratteristiche che rendono “eccellente” o “limitato” un lavoro scientifico nelle varie aree del sapere e, infine, la variabilità tra le Aree della tendenza, anche involontaria, a indulgere a valutazioni più elevate per migliorare la posizione della propria disciplina. Pertanto, le tabelle che per comodità di visualizzazione riuniscono nel rapporto **i risultati delle valutazioni nelle varie aree non devono essere utilizzate per costruire graduatorie di merito tra le aree stesse.**
Insomma, secondo Anvur, un voto pari a “1” in Chimica (Area 3), abbastanza frequente, non ha lo stesso valore di un “1” in Giurisprudenza (Area 12), che è invece è merce rara. Qualcuno potrebbe obiettare che si può organizzare la gara in diversi gironi in modo che i chimici non competano con i giuristi, ma nemmeno i gironi risolvono il problema perché molti dipartimenti sono un mosaico di discipline e perché la disomogeneità dei metri di giudizio si ripropone persino all’interno dei diversi settori della chimica e della giurisprudenza.
Il secondo macigno è la “legge dell’imbuto“: anche se i metri di giudizio fossero omogenei, non si possono stilare classifiche tra istituzioni di dimensioni diverse. Per ragioni ben note alla statistica, i voti medi dei grandi dipartimenti tendono a essere più vicini tra di loro rispetto a quelli dei dipartimenti piccoli, la cui media è più soggetta a variazioni aleatorie. Se competono istituzioni di dimensioni diverse, quelle grandi finiscono più facilmente a metà classifica piuttosto che in cima o in coda. David Spiegelhalter, uno dei massimi statistici viventi, si è dedicato a demolire le classifiche delle istituzioni sanitarie britanniche, concludendo che è proprio questa proprietà statistica a minare alla radice la possibilità di stilare classifiche sensate.
Escogitare un metodo scientificamente fondato per classificare i dipartimenti universitari italiani in base ai loro voti VQR vorrebbe dire scoprire una pietra filosofale, capace di trasmutare il piombo dei voti VQR nell’oro di una rigorosa classifica dei dipartimenti. Obiettivo ambizioso, ma scientificamente irraggiungibile. Ma come accade con il moto perpetuo o la pietra filosofale, salta sempre fuori chi annuncia al mondo di aver compiuto il miracolo. Il prodigio stava molto a cuore ai Rettori, che desideravano avere un criterio oggettivo che li deresponsabilizzasse quando bisogna affrontare lo spinoso compito di ripartire docenti e fondi tra i dipartimenti del proprio ateneo. Nel gennaio 2014, a coronamento degli sforzi della Commissione ricerca della Crui, fu annunciata al mondo la scoperta della agognata pietra filosofale, ovvero del cosiddetto Voto Standardizzato di dipartimento (29.1.2014).
“””
Mi piace la dietrologia neoborbonica secondo cui Anvur e Miur avrebbero fatto carte false per rubbbbare i soldi al sud indirizzandoli tutti al norde lmao
Metriche di M. generano risultati di M.
>Secondo Giuseppe De Nicolao (statistico all’Università di Pavia) di Roars.it, “delle due l’una: se l’indicatore Ispd davvero ‘si fonda su un modello matematico solido’, Anvur e Mur hanno nascosto al Paese una catastrofica divergenza che, oltre a certificare la bancarotta scientifica di un terzo dei dipartimenti italiani, sancisce il fallimento di un decennio di riforme. Oppure, pur sapendo che Ispd è un termometro impazzito, Anvur e Miur hanno occultato i numeri che ne evidenziavano la fragilità, perché il fine di travasare risorse da Sud a Nord giustificava i mezzi, vale a dire il ricorso ad alchimie numerologiche pseudoscientifiche.
In soldoni: O gran parte delle università del sud sono accademicamente inutili all’insaputa del paese intero, oppure il sistema di valutazione è una vaccata colossale che ha il solo scopo di dirottare i fondi.
Premesso che mi sembra estremamente più probabile la seconda ipotesi (senza tirare in mezzo nessuna questione meridionale), la prima lezione che si può trarre dalla notizia è che il mondo accademico è praticamente una loggia massonica.
Un divario Nord – Sud che esiste da piú di 100 anni, perché ci si stupisce se nell’ennesima raccolta dati si conferma questa cosa?
> Bisogna vedere se si è fatta una politica migliore di altri atenei, se ci si è incamminati sulla buona strada nel periodo considerato
Bisognerebbe in pratica premiare la ‘buona volontá regalando soldi pubblici
Mi raccomando, vincoliamo il PNRR con il 40% dei fondi da destinare al sud…
Qui mi sembra che la discussione non abbia affrontato il punto più interessante dell’articolo:
> Possiamo immaginare – ipotizza Cerri – il finanziatore pubblico della ricerca che agisca come un investitore, e non come un rendicontatore, come chi valuta le potenzialità che un’impresa o una start-up ha e potrà avere nel futuro, più che elargire premialità sulla base dello storico?
Negli Stati Uniti, così come per i fondi di ricerca europei, non sono i dipartimenti a ricevere i finanziamenti, ma i singoli progetti, di solito in capo ad una sola persone, il “principal investigator”, che poi decide in quale università o centro di ricerca stabilirsi per svolgere l’attività di ricerca. Questa cosa rende più meritocratico il finanziamento perché è molto più difficile fingere di fare ricerca di qualità rispetto al sistema attuale dove i capi dipartimento spingono i ricercatori a pubblicare fuffa su riviste fasulle e a citarsi a vicenda.
Il problema maggiore è che questo sistema richiede che un’università faccia un investimento iniziale per rendere l’infrastruttura (laboratori, biblioteche, etc…) all’altezza, e per attrarre i progetti finanziati che poi pagano un’affitto per accedere ai servizi.
Ci sono alcune cose che vedo.
La prima è che il thread è deragliato in nord vs sud. Ma non mi affascina.
Le altre.
L’anvur non ha un “algoritmo pubblico”, ed i criteri sono creati da una commissione. Non credo sia costituita da 70 persone… ma non ho mai approfondito quanti siano. Dopotutto vorrei veder come tirano fuori il coniglio dal cappello.
La cosa che non mi piace è di tentar di oggettivare il mio lavoro con numeri (h-index, numero di citazioni…). Non è accettabile. È un meccanismo perverso.
Io non faccio ricerca per fare una buona ricerca. Mi interessa solo fare pezzi di carta in base a come ci valutano. Sono inutili? Si, spesso si. Ma se vogliono questo, è quello che ottengono. Ma questa funzione obiettivo non genera buona ricerca, genera cricche di citatori, e fondamentalmente trasforma il tutto in indicatori di vanità, buoni a generare altri pezzi di carta.
13 comments
Roars (https://www.roars.it/online/vqr-la-lista-segreta-dei-120-dipartimenti-con-zero-in-pagella/) ha pubblicato le valutazioni dei Dipartimenti universitari effettuate dal MUR per l’assegnazione dei fondi d’eccellenza, mostrando, se i dati sono corretti, una spaccatura clamorosa fra nord e sud, dove molti dipartimenti hanno ricevuto un punteggio si zero centesimi. L’osservazione richiederebbe di pensare ad un aggiornamento del nostro sistema universitario, ma dopo tante riforme fatte, mi vien da pensare che sarebbe l’organo riformatore da riformare per primo.
Anch’io darei zero al mio dipartimento del Sud. Purtroppo alcuni dipartimenti al Sud, anche in ottica poi di accesso al lavoro, non hanno molto senso. Io vengo da uno di quelli. Per cui o si riprogramma tutto col Ministero dell’Educazione coadiuvato a quello del Lavoro per l’inserimento poi o questi giovani andranno ad unirsi ai NEET in attesa di un lavoro stabile con un contratto vero che non arriverà.
Niente di nuovo insomma.
Il Sud fa schifo e non potrà mai migliorare.
Il Nord è innegabilmente migliore sotto tutti i punti di vista e attrae chi potrebbe far progredire il Sud.
Emerge che 119 dipartimenti, la gran parte del Sud e delle Isole, avevano ricevuto una valutazione di 0 (zero) su 100 (ciò non significa che non si sia fatto nulla in termini di ricerca). Inoltre, 236 dipartimenti, circa un terzo, avevano ottenuto meno di 10 su 100. Dal raffronto delle due edizioni, secondo gli analisti di Roars, si desume che nel 2022 il numero di dipartimenti con meno di 10 su 100 in pagella sarebbe cresciuto arrivando intorno ai 300, il 40% del totale.
Che cosa se ne deve concludere? Secondo Giuseppe De Nicolao (statistico all’Università di Pavia) di Roars.it, “delle due l’una: se l’indicatore Ispd davvero ‘si fonda su un modello matematico solido’, Anvur e Mur hanno nascosto al Paese una catastrofica divergenza che, oltre a certificare la bancarotta scientifica di un terzo dei dipartimenti italiani, sancisce il fallimento di un decennio di riforme. Oppure, pur sapendo che Ispd è un termometro impazzito, Anvur e Miur hanno occultato i numeri che ne evidenziavano la fragilità, perché il fine di travasare risorse da Sud a Nord giustificava i mezzi, vale a dire il ricorso ad alchimie numerologiche pseudoscientifiche. In entrambi i casi, Anvur, Mur e il governo sono debitori di una risposta all’opinione pubblica”.
Quindi (a parte le ovvie divergenze tra Università e Dipartimenti) è possibile che la valutazione stessa non abbia senso a livello di definizione matematica. Del resto dal documento stesso dell’ANVUR sull’ISPD:
“ANVUR è lieta che il CUN riconosca che l’ISPD sia un indicatore adatto a formare la graduatoria dei primi 350 dipartimenti italiani (alla fine della Raccomandazione si legge infatti che “…l’indicatore scelto dall’ANVUR è coerente con l’obiettivo di formulare…”) e da parte sua condivide pienamente la preoccupazione sottesa alla Raccomandazione circa il rischio di possibili usi distorcenti degli indicatori. A più riprese ANVUR ha raccomandato di non utilizzare gli indicatori messi a punto per specifici obiettivi al di fuori del loro corretto ambito di applicazione. ANVUR ribadisce che tali usi distorcenti sono da evitare, anche a livello di Ateneo, e segnala il rischio che essi possano portare all’assunzione di decisioni non sostenute da reali elementi valutativi.”
https://www.anvur.it/wp-content/uploads/2017/10/RispostaANVURaCUNsuusiISP~.pdf
Io non conosco il Sud, conosco però molti dei bandi nazionali che sono usciti negli ultimi 5/6 anni e ogni singolo bando aveva una corsia preferenziale le Regioni del Sud. Vuoi con % di finanziamento maggiori, vuoi perché il 50/60% del totale stanziato era riservato per il sud, vuoi per mille e più fattori..
Non ho idea di dove siano scomparsi tutti quei miliardi, ma mi sembra davvero chiaro che continuare ad adottare politiche uguali per il Nord e per il Sud sia controproducente. Non esiste (e non credo sia mai esistito) un piano economico NAZIONALE ma può esistere solo per area. Idem ovviamente per l’Università, che richiede politiche estremamente diverse.
Complice una pausa pranzo michael-scottiana mi sono spiluccato l’articolo originale di roars linkato sotto da OP (qui ri-linkato [https://www.roars.it/online/vqr-la-lista-segreta-dei-120-dipartimenti-con-zero-in-pagella/](https://www.roars.it/online/vqr-la-lista-segreta-dei-120-dipartimenti-con-zero-in-pagella/)) ed è una miniera d’oro, un’immersione nei paesaggi inquietanti della burocrazia italiana più pura, quella fatta di sottocommissioni, enti temporanei eterni, agenzie multiple con mandati sovrapponibili, amici di cugini di amici ecc.
“””
Oltre che essere politicamente discutibile, istituire una “gara” tra i dipartimenti solleva problemi tecnici di difficile soluzione. Per non affidarsi interamente a valutazioni discrezionali che darebbero un potere enorme agli arbitri della tenzone, si è voluto partire da una classifica “oggettiva”, basata sulla VQR, la valutazione della Qualità della Ricerca. A prima vista sembrerebbe facile usare i voti della VQR per stilare la classifica dei dipartimenti, ma in realtà ci sono due macigni che rendono l’impresa difficile, se non impossibile.
La scelta pìù naturale per dare un voto a un dipartimento sembra quella di calcolare la media dei voti, compresi tra zero e uno, che la VQR ha assegnato ai “prodotti della ricerca” presentati da quel dipartimento, il cui numero è essenzialmente proporzionale al numero di docenti afferenti al dipartimento. Tanto più la media è vicina a uno, tanto più il dipartimento sarà eccellente. Però è la stessa Anvur ad avvisare che adottare questo approccio sarebbe come sommare le mele con le pere (il grassetto è nostro):
Tra le finalità della VQR non compare il confronto della qualità della ricerca tra aree scientifiche diverse. Lo sconsigliano i parametri di giudizio e le metodologie diverse di valutazione delle comunità scientifiche all’interno di ciascuna area […] le diverse culture della valutazione, in particolare la diversa percezione delle caratteristiche che rendono “eccellente” o “limitato” un lavoro scientifico nelle varie aree del sapere e, infine, la variabilità tra le Aree della tendenza, anche involontaria, a indulgere a valutazioni più elevate per migliorare la posizione della propria disciplina. Pertanto, le tabelle che per comodità di visualizzazione riuniscono nel rapporto **i risultati delle valutazioni nelle varie aree non devono essere utilizzate per costruire graduatorie di merito tra le aree stesse.**
Insomma, secondo Anvur, un voto pari a “1” in Chimica (Area 3), abbastanza frequente, non ha lo stesso valore di un “1” in Giurisprudenza (Area 12), che è invece è merce rara. Qualcuno potrebbe obiettare che si può organizzare la gara in diversi gironi in modo che i chimici non competano con i giuristi, ma nemmeno i gironi risolvono il problema perché molti dipartimenti sono un mosaico di discipline e perché la disomogeneità dei metri di giudizio si ripropone persino all’interno dei diversi settori della chimica e della giurisprudenza.
Il secondo macigno è la “legge dell’imbuto“: anche se i metri di giudizio fossero omogenei, non si possono stilare classifiche tra istituzioni di dimensioni diverse. Per ragioni ben note alla statistica, i voti medi dei grandi dipartimenti tendono a essere più vicini tra di loro rispetto a quelli dei dipartimenti piccoli, la cui media è più soggetta a variazioni aleatorie. Se competono istituzioni di dimensioni diverse, quelle grandi finiscono più facilmente a metà classifica piuttosto che in cima o in coda. David Spiegelhalter, uno dei massimi statistici viventi, si è dedicato a demolire le classifiche delle istituzioni sanitarie britanniche, concludendo che è proprio questa proprietà statistica a minare alla radice la possibilità di stilare classifiche sensate.
Escogitare un metodo scientificamente fondato per classificare i dipartimenti universitari italiani in base ai loro voti VQR vorrebbe dire scoprire una pietra filosofale, capace di trasmutare il piombo dei voti VQR nell’oro di una rigorosa classifica dei dipartimenti. Obiettivo ambizioso, ma scientificamente irraggiungibile. Ma come accade con il moto perpetuo o la pietra filosofale, salta sempre fuori chi annuncia al mondo di aver compiuto il miracolo. Il prodigio stava molto a cuore ai Rettori, che desideravano avere un criterio oggettivo che li deresponsabilizzasse quando bisogna affrontare lo spinoso compito di ripartire docenti e fondi tra i dipartimenti del proprio ateneo. Nel gennaio 2014, a coronamento degli sforzi della Commissione ricerca della Crui, fu annunciata al mondo la scoperta della agognata pietra filosofale, ovvero del cosiddetto Voto Standardizzato di dipartimento (29.1.2014).
“””
Mi piace la dietrologia neoborbonica secondo cui Anvur e Miur avrebbero fatto carte false per rubbbbare i soldi al sud indirizzandoli tutti al norde lmao
Metriche di M. generano risultati di M.
>Secondo Giuseppe De Nicolao (statistico all’Università di Pavia) di Roars.it, “delle due l’una: se l’indicatore Ispd davvero ‘si fonda su un modello matematico solido’, Anvur e Mur hanno nascosto al Paese una catastrofica divergenza che, oltre a certificare la bancarotta scientifica di un terzo dei dipartimenti italiani, sancisce il fallimento di un decennio di riforme. Oppure, pur sapendo che Ispd è un termometro impazzito, Anvur e Miur hanno occultato i numeri che ne evidenziavano la fragilità, perché il fine di travasare risorse da Sud a Nord giustificava i mezzi, vale a dire il ricorso ad alchimie numerologiche pseudoscientifiche.
In soldoni: O gran parte delle università del sud sono accademicamente inutili all’insaputa del paese intero, oppure il sistema di valutazione è una vaccata colossale che ha il solo scopo di dirottare i fondi.
Premesso che mi sembra estremamente più probabile la seconda ipotesi (senza tirare in mezzo nessuna questione meridionale), la prima lezione che si può trarre dalla notizia è che il mondo accademico è praticamente una loggia massonica.
Un divario Nord – Sud che esiste da piú di 100 anni, perché ci si stupisce se nell’ennesima raccolta dati si conferma questa cosa?
> Bisogna vedere se si è fatta una politica migliore di altri atenei, se ci si è incamminati sulla buona strada nel periodo considerato
Bisognerebbe in pratica premiare la ‘buona volontá regalando soldi pubblici
Mi raccomando, vincoliamo il PNRR con il 40% dei fondi da destinare al sud…
Qui mi sembra che la discussione non abbia affrontato il punto più interessante dell’articolo:
> Possiamo immaginare – ipotizza Cerri – il finanziatore pubblico della ricerca che agisca come un investitore, e non come un rendicontatore, come chi valuta le potenzialità che un’impresa o una start-up ha e potrà avere nel futuro, più che elargire premialità sulla base dello storico?
Negli Stati Uniti, così come per i fondi di ricerca europei, non sono i dipartimenti a ricevere i finanziamenti, ma i singoli progetti, di solito in capo ad una sola persone, il “principal investigator”, che poi decide in quale università o centro di ricerca stabilirsi per svolgere l’attività di ricerca. Questa cosa rende più meritocratico il finanziamento perché è molto più difficile fingere di fare ricerca di qualità rispetto al sistema attuale dove i capi dipartimento spingono i ricercatori a pubblicare fuffa su riviste fasulle e a citarsi a vicenda.
Il problema maggiore è che questo sistema richiede che un’università faccia un investimento iniziale per rendere l’infrastruttura (laboratori, biblioteche, etc…) all’altezza, e per attrarre i progetti finanziati che poi pagano un’affitto per accedere ai servizi.
Ci sono alcune cose che vedo.
La prima è che il thread è deragliato in nord vs sud. Ma non mi affascina.
Le altre.
L’anvur non ha un “algoritmo pubblico”, ed i criteri sono creati da una commissione. Non credo sia costituita da 70 persone… ma non ho mai approfondito quanti siano. Dopotutto vorrei veder come tirano fuori il coniglio dal cappello.
La cosa che non mi piace è di tentar di oggettivare il mio lavoro con numeri (h-index, numero di citazioni…). Non è accettabile. È un meccanismo perverso.
Io non faccio ricerca per fare una buona ricerca. Mi interessa solo fare pezzi di carta in base a come ci valutano. Sono inutili? Si, spesso si. Ma se vogliono questo, è quello che ottengono. Ma questa funzione obiettivo non genera buona ricerca, genera cricche di citatori, e fondamentalmente trasforma il tutto in indicatori di vanità, buoni a generare altri pezzi di carta.