La replica di Lorenzo Rampa

Riceviamo e volentieri pubblichiamo la replica di Lorenzo Rampa all’articolo Un riparto difficile: il backstage del piano triennale pavese

__________________________

RampaIdee per allungare il passo nei riparti di risorse, senza retrocedere

di Lorenzo Rampa

1. Strategie, pesi e misure

 

Il brillante intervento di Barbieri e De Nicolao (d’ora in poi, per brevità, B&D) ricostruisce la genesi del primo Piano Triennale del personale dell’Ateneo criticandone vari aspetti sotto il profilo del metodo, sotto quello tecnico e sotto quello strategico. Più in generale esso pone il problema di come esercitare il governo della distribuzione delle risorse in Ateneo (nello specifico quelle relativa al personale docente e ricercatore) facendo qualche passo in avanti alla luce delle passate esperienze. Tale modo ha a che fare con problemi di “pesi e di misure” ma non si riduce a questi, anche se non può farne a meno. Almeno per chi ritiene che i riparti di risorse misurabili con numeri debbano inevitabilmente farsi ricorrendo anche a numeri. Anche per sollecitazione degli Autori intervengo nella speranza di contribuire utilmente al dibattito (con qualche inevitabile puntualizzazione di merito) [1].

L’ambito di discrezionalità degli Atenei non è purtroppo molto ampio in un Sistema universitario iper-centralistico come il nostro. Tuttavia i riparti delle (poche) risorse disponibili rientra in questo ambito e possono seguire strade assai diverse a seconda che i Dipartimenti siano coinvolti come negoziatori diretti con la governance, come meri destinatari di quote decise centralmente oppure come destinatari di incentivi finalizzati a comportamenti coerenti con gli obiettivi della governance stessa.

Si può infatti governare lasciando agire (e negoziare) liberamente i docenti, i ricercatori e i Dipartimenti secondo la loro capacità di influenza (laissez faire); si può governare per delibere determinate da decisioni meramente politiche delle maggioranze degli Organi (politique d’abord); si può governare mediante incentivi capaci di orientare i comportamenti virtuosi (incentive based regulation).

Scartato il primo modo perché equivale all’assenza di governance, direi che il secondo modo si espone al rischio di riproduzione dell’esistente poiché risulterebbe condizionato dalle maggioranze (disciplinari e di categoria), almeno fino a quanto gli Statuti prevedono Organi formati secondo prevalenti criteri di rappresentanza. Infatti le Aree e i Dipartimenti più numerosi (o più abili nel formare alleanze) avranno tendenzialmente garantite quote più importanti di risorse.

Il terzo modo, quello che a mio giudizio consente di allungare il passo, tende a stimolare comportamenti che fanno affluire maggiori o crescenti risorse a chi ottiene migliori risultati [2]. Lo status quo sarebbe sostituito da una (più o meno rapida) evoluzione verso una struttura per Aree e per Dipartimenti che privilegia il merito. Mentre molti invocano “scelte strategiche” lamentandone l’assenza, personalmente inclino a ritenere che questa sia in sé la condizione necessaria e preliminare di ogni strategia[3]. Infatti qualunque strategia si adotti [4], essa non può prescindere dal premiare le strutture che abbiano mostrato di saper produrre “buoni risultati”.

Conosco tuttavia la montagna di obiezioni che si possono fare a questo proposito. La principale che sottostà all’intervento di B&D, riguarda la difficoltà (insormontabile?) di misurare il merito e i buoni risultati e dunque l’imperfezione delle misure stesse. La seconda riguarda invece la correttezza dei pesi da attribuire ai vari indicatori (assumendo che le misure adottate siano sufficientemente corrette).

2. Surtout pas trop de zèle

Inizio con la prima questione: come misurare e valutare ? Essa è tanto più cruciale se si considerano i frequenti errori di metodo e di procedimento commessi nei primi tentativi italiani di valutazione. Ciò ha contribuito a dare forza alla tesi secondo cui, piuttosto che una valutazione imperfetta, sarebbe stato preferibile astenersi dalla valutazione stessa. La versione estrema di questo punto di vista è che non si valuti finché non si siano trovati indicatori perfetti, ovvero che si vaghi ancora a lungo nel buio della notte in cui tutte le vacche sono nere.

Sono convinto che le numerose e spesso pertinenti critiche alla valutazione nazionale e locale siano state meritorie. I paradossi della valutazione meramente bibliometrica della produttività scientifica indurranno certamente maggiore prudenza negli organi di valutazione. Il dibattito su bibliometria e peer review ha infatti prodotto un’enorme letteratura da cui trarre buoni consigli. Obbietto solo che non possiamo attendere il Paradiso della perfezione per governare meglio il sistema universitario nazionale e il nostro Ateneo. Surtout pas trop de zèle. Lo zelo eccessivo potrebbe essere infatti nocivo alla causa che si vuole difendere, ad esempio offrendo argomenti a chi teme di essere valutato, ai fautori dell’autoreferenzialità e della distribuzione a pioggia delle risorse (dunque allo status quo).

Premesso tutto ciò, riconosco (come non potrei?) i limiti dei modelli stile CNVSU, nonché di quelli ad essi ispirati adottati dall’Ateneo. Vorrei però fare un esempio di eccesso di zelo (certamente inconsapevole da parte di B&D). Gli autori alludono a mutazioni “mostruose” (teratogenesi) a seguito dell’adozione in via provvisoria di un indicatore di produttività scientifica del tipo H index normalizzato, in luogo del vecchio indice di ripartizione VTR-CIVR ed in attesa dei risultati della più recente valutazione VQR-ANVUR. Le evidenze riportate circa i paradossi degli indicatori desunti da Scholar Search (d’ora in poi SCS) sono effettivamente impressionanti e fanno sorgere il dubbio sulla razionalità e prudenza statistica di chi ha curato e portato in approvazione l’utilizzo di tali indicatori.

Tuttavia, prima che i lettori consolidino una opinione di eccessiva irrazionalità e imprudenza (giustificata alla luce di quelle evidenze), è bene offrire un’informazione completa sulla questione. L’adesione del nostro Ateneo al progetto sperimentale CENSIS in cui tale indicatore è stato adottato risale all’inizio del 2010. Fino alla fine del 2011 SCS elaborava i suoi indici utilizzando, tra gli altri, i filtri disciplinari di Google Scholar che, com’è noto ai suoi frequentatori, consistevano nella distinzione dei prodotti rilevati in sette Macro-aree scientifiche[5].

Per comprendere con quale grado di cautela e provvisorietà siano stati presi in considerazione tali indici è bene che il lettore sappia che nella proposta contenuta nel documento sottoposto al Collegio dei Direttori e agli Organi di Governo i limiti del ricorso a SCS erano chiaramente enunciati [6]. In secondo luogo è bene ricordare che l’utilizzo dell’indicatore H desunto da SCS è stato proposto come alternativa provvisoria all’ormai desueto indicatore CIVR – VTR, lasciando al Collegio dei Direttori la scelta tra i due [7]. Il Collegio dei Direttori ha effettivamente deciso di esprimere parere favorevole all’adozione dell’indicatore utilizzato nel progetto sperimentale CENSIS e gli Organi di governo si sono adeguati.

Nonostante ciò il dubbio rimane se non si è a conoscenza di una circostanza importante anch’essa nota ai frequentatori degli indicatori di produttività scientifica. I dati estratti per la costruzione dell’indicatore H norm risalgono al 1/1/2012. Dopo quella data, nella primavera del 2012, Google Scholar non consentiva più di utilizzare i sette filtri di Macro-Area citati, e ai curatori di SCS si presentava l’alternativa di mantenere aperto il sito con i vecchi dati o aggiornarlo con i nuovi non più filtrati per Macro-Aree e quindi con accresciute distorsioni da omonimie. In effetti i frequentatori ricorderanno che il sito è rimasto oscurato fino all’Agosto 2012 e poi è stato riaperto con i nuovi dati riportati anche da B&D.

L’Ateneo ha però utilizzato l’indicatore elaborato con dati anteriori, oggi non più visibili sul sito stesso, ma conservati in files disponibili. In quei files Clementi, Confalonieri, Barbieri e Costa non risultano più essere i “top scientists” dell’Area 14, né vengono loro attribuite pubblicazioni in campo bio-medico. Naturalmente ciò non significa che la precedente versione di SCS-2011 rendesse loro giustizia (né la rendesse al nuovo Magnifico e a tanti altri colleghi delle aree non bibliometriche) a causa del basso livello di copertura del data base nel loro Settore Scientifico disciplinare. Ma, giustappunto, questa era una circostanza nota, tale da rendere certamente inaffidabili gli indicatori individuali, ma da rendere (secondo alcuni) provvisoriamente accettabili quelli aggregati. Dunque la questione cruciale che divide i proponenti dell’indice in questione e i suoi critici si riduce alla seguente: quanto sia stato azzardato e (gravemente) compromissorio utilizzare in via provvisoria l’indice stesso anche per Aree con un basso tasso di copertura della produzione scientifica [8].

3. Inferno o purgatorio?

B&D citano a proposito di SCS un polemico pamphlet, postato sul sito ROARS da Antonio Banfi, dall’intrigante titolo Scholar Search: all’inferno andata e ritorno. Devo ammettere che nella mia visione laica non esiste né Inferno (dove tutto è irrimediabilmente corrotto) né Paradiso (dove tutto è perfetto). Il mondo reale è più simile al Purgatorio dove i peccati sono all’ordine del giorno e si espiano, l’imperfezione è di casa ma si può porvi rimedio. Chi invece pensa che la valutazione imperfetta sia peggio dell’assenza di valutazione crede troppo nel Paradiso. Personalmente preferirei parlare di gradi di imperfezione e di approssimazione (peccati espiabili con il confronto metodologico e l’esperienza), piuttosto che di un’irraggiungibile perfezione. Sotto questo profilo si potrebbero confrontare l’indicatore tanto discusso con l’indicatore R delle Aree pavesi desumibile dal Rapporto VQR [9]. So bene che qualcuno sostiene che l’eventuale “somiglianza” dei due tipi di indicatori depone a sfavore della VQR piuttosto che a favore di SCS – 2011 ma lascio l’argomento ai fautori del Paradiso.

Credo, anzitutto, che il lettore debba avere ben chiare alcune differenze tra i due tipi di indicatori aggregati che riassumo brevemente: (1) SCS è solo bibliometrico mentre VQR si basa su valutazioni miste bibliometriche/peer review; (2) SCS normalizza gli indicatori sulle medie degli SSD mentre VQR normalizza sulle medie delle Aree CUN; (3) SCS normalizza anche sulla deviazione standard mentre l’indicatore R di VQR è normalizzato solo sulla media.

Dunque la comparazione non è semplice anche perché le distribuzioni dei valori R di Area sono estremamente eterogenee, direi a causa dell’eterogeneità dei criteri di valutazione ma anche di quella intrinseca delle Aree stesse[10]. Ciò non di meno, confrontando gli indicatori delle Aree pavesi, si notano una discreta correlazione ed una accettabile co-graduazione. L’Area pavese con l’indicatore più alto rimane tale, quella con il più basso rimane tale. Ma in questi casi si tratta di Aree cosiddette “bibliometriche” e questo potrebbe essere la causa principale della coerenza. Se veniamo invece alle “non bibliometriche”, ovvero alle Aree dalla 10 in poi, l’ordine cambia solo per la rilevante eccezione dell’Area 11, mentre l’Area 14, portata come esempio da B&D, è caratterizzata da un valore dell’indice piuttosto simile e un’identica posizione in Ateneo[11]. Tutto ciò sarà un puro caso?

Non provo qui a proporre una comparazione tra indicatori di Dipartimento. Confido tuttavia che con un po’ di buon senso statistico sia possibile elaborare indici che tengano conto dell’eterogeneità e che, mi aspetto, risulterebbero non troppo dissimili da altri indicatori[12]. Per un laico quale io sono ciò dovrebbe consentire un utilizzo condiviso dei risultati VQR, abbandonando il suo sostituto provvisorio ma senza eccessivo dileggio dello stesso. L’alternativa dei fautori del Paradiso sarebbe quella di non farne nulla. Il che tuttavia significherebbe, ancora una volta, non utilizzare alcun sistema di valutazione, di premi e di incentivi.

4. Mercanti, brokers e banditori

La descrizione di B&D del processo decisionale che ha portato all’approvazione del Piano triennale sembra avere l’intenzione di mostrare che fretta e assenza di strategie abbiano determinato una programmazione troppo decentralizzata ai Dipartimenti. Di seguito vorrei argomentare tuttavia che il tentativo, in alcune parti fallito, era quello di una procedura di mercato regolato corrispondente alla mia visione preferita di governance, non quello del laissez faire né quello della politique d’abord (che ha prevalso in qualche passaggio decisionale negli Organi di governo).

Ma procediamo con ordine. Non commento qui l’imputazione di aver sacrificato alla fretta la strategia. Gli Organi di governo hanno condiviso l’opinione che la disponibilità di punti organico residui da sfruttare entro l’anno fosse una ragione sufficiente per procedere: lascio dunque ai lettori di valutare se abbiano fatto bene o male.

La proposta iniziale, correttamente descritta da B&D, era (al netto del Piano straordinario associati) quella di prevedere 22 posizioni di RDB, pari a circa il 55% dei ricercatori a tempo determinato in scadenza nel triennio, altrettanti RDA (di cui 12 su fondi esterni e due per chiamata diretta); altrettante promozioni a PO. Dunque una sorta di equilibrio nelle progressioni di carriera (sempre al netto del Piano associati)

Relativamente agli RDB la ratio sottostante ai numeri era duplice: (a) i reclutamenti potevano essere coperti dal bilancio con i risparmi derivanti dalla cessazione dei Ricercatori cofinanziati dalla Regione, più quelli derivanti dalla cessazione dei docenti a contratto dimissionari; (b) il loro numero, che vincolava per decreto ministeriale il massimo delle promozioni a PO, doveva consentire un ragionevole numero di questo tipo di reclutamenti, certo non enorme se confrontato con ben 125 promozioni a PA consentite dal Piano associati. Bisogna tuttavia riconoscere che la distribuzione asimmetrica tra Dipartimenti degli aventi titolo a partecipare a concorsi per RDB ha determinato una forte resistenza da parte del Senato e soprattutto del CDA.

Ciò che successivamente è stato deciso da Senato e CDA, mediante una consistente riduzione degli RDB (e dei PO), è a mio giudizio, un discreto esempio di politique d’abord. Gli stessi B&D descrivono l’episodio come una decisione presa a maggioranza di una coalizione maggiormente interessata a reclutamenti di RDA piuttosto che RDB. Questo nel timore che troppi RDB avrebbero favorito i Dipartimenti delle Macro-Aree con un numero maggiore di aventi titolo, senza però tener conto che gli stessi avrebbero dovuto poi rinunciare, dato il vincolo dei punti organico assegnati agli stessi, ad altri tipi di reclutamento.

Probabilmente tutto ciò è stata la conseguenza della difficoltà di tutti gli Atenei ad auto-regolarsi dentro una nuova struttura delle posizioni accademiche e delle modalità di reclutamento. Tant’è che lo stesso nuovo Ministro di lì a pochi giorni ha ritenuto di annunciare un Piano Nazionale per gli RDB che gli Atenei stentavano ad iniziare a reclutare.

Veniamo al passo successivo. Dati i punti assegnati provvisoriamente ai Dipartimenti, questi dovevano fare le loro scelte. E le stesse dovevano essere compatibili con il Piano aggregato di Ateneo. Non vi è dubbio che questo primo esercizio decisionale sia avvenuto con modalità costrette dalla fretta. Ma che il Governo dovesse farsi carico di un coordinamento tra Dipartimenti, comportandosi come una sorta di banditore (non come un broker che è tutt’alta cosa) era inevitabile, lo è stato in passato e lo sarà anche in futuro. L’alternativa è il centralismo assoluto con decisioni prese a suon di maggioranza secondo logiche di mera rappresentanza di Area e di categoria.

5. Quale politica di reclutamento del personale (docente e ricercatore)?

Torno ora al punto rimasto in sospeso, cercando di rispondere alla domanda finale di B&D :quale politica di reclutamento?. C’è un solo modo, a mio giudizio, che può evitare decisioni distributive tipo politique d’abord oppure il rinvio delle stesse per veti contrapposti. Un Rettore, tanto più se eletto con ampio consenso, deve prendersi la responsabilità di proporre lui stesso un modello di riparto che incentivi il perseguimento degli obiettivi per cui è stato eletto [13]. Se gli Organi di governo chiamati ad approvarlo ravvisassero palesi incoerenze con gli obiettivi del suo programma esiste l’istituto della sfiducia. Se gli stessi Organi dovessero invece non approvare il modello nonostante la sua coerenza con il programma rettorale esiste la possibilità delle dimissioni.

Confesso di non essere particolarmente interessato a definire strutture del personale per fasce sulla base di algoritmi o figure geometriche. Più interessante è definire i criteri distributivi che determinano la struttura per Dipartimenti, e quelli di merito che determinano i singoli reclutamenti.

Inizio con le questioni di “pesi e misure” che attengono ai criteri distributivi, relativamente alle quali vedo all’orizzonte due questioni fondamentali che potrebbero dividere gli organi di governo sulla base di “interessi” contrapposti delle Aree (o dei Dipartimenti) in essi rappresentate. Rinvio invece al fondo la questione dei criteri di merito nei reclutamenti individuali.

Una questione è quella relativa ai pesi di ricerca e didattica nel riparto dei punti organico[14]. La scelta di pesi eguali per gli indicatori di risultato delle due missioni principali dell’Università potrà sembrare una scelta meramente salomonica, ma la ritengo del tutto sensata. Il Ministero ha oscillato, ai fini della definizione dei riparti premiali, tra un peso 2/3 attribuito alla didattica (in passato) e 2/3 attribuito alla ricerca (negli ultimi anni). Si tenga conto tuttavia che la parte non premiale del FFO d’ora in poi sarà fortemente correlata alla numerosità degli studenti regolari pesati con il loro costo standard, e che tale numerosità ha più a che fare con la didattica che con la ricerca.

Varianti strategicamente determinate a livello locale potrebbero consistere in incentivi ai Corsi in lingua inglese (che lo stesso Ministero tende ad incentivare nel recente Decreto sulla Programmazione triennale), o ad altre iniziative innovative, oppure ancora a disincentivi al mantenimento di Corsi di scarso successo numerico. Ma in sostanza non riterrei ragionevole discostarsi troppo dalla “pesatura salomonica”.

Più impegnativa è la questione relativa alla pesatura dei principali indicatori di successo nella ricerca ovvero quello relativo al reperimento di fondi e quello che misura il “valore” dei prodotti della ricerca. I due tipi di indicatori non sono sempre correlati tra di loro: alcuni Dipartimenti che raccolgono pochi fondi sono però al top in termini di indicatori di “valore dei prodotti” comunque misurati. Le ragioni di ciò sono note e anche ovvie: filosofi e matematici, per fare solo due esempi, non necessitano di troppi fondi per le loro ricerche né trovano abbondanza di risorse nei bandi competitivi. Dunque non è del tutto corretto attribuire il loro basso tasso di reperimento di risorse esterne allo scarso impegno in questa direzione.

Allora la domanda fondamentale da porsi è questa: quando si definiscono i pesi ai fini di un indicatore “sintetico” della ricerca è ragionevole un risultato per cui un Dipartimento al top in termini di “valore dei prodotti” riceva meno della sua quota dimensionale solo perché reperisce pochi fondi?[15]. Al riguardo non posso che esprimere la mia personalissima risposta negativa. In altri termini, mentre è corretto un sistemi di pesi che incentivi lo sforzo per reperire fondi esterni, tale sistema non deve arrivare al punto da penalizzare le Aree che, per loro natura, sono in grado di produrre ottime pubblicazioni con pochi fondi.

Da ultimo: B&D imputano al Piano triennale di aver lasciato cadere criteri di merito individuale ai fini dei singoli reclutamenti. Alcuni di questi, pur enunciati nel Documento di proposta del Piano, non hanno potuto essere incorporati nelle procedure a fronte dei rischi di ricorso (che mi risulta siano già state prospettati da associazioni di precari a proposito di bandi per RDA e RDB). Tuttavia ciò non significa che questa sia stata una scelta “politica”, né che la futura governance sia del tutto priva di strumenti al riguardo. Anzi mi auguro che essa utilizzi un (forse poco noto) disposto statutario che richiede di corredare la proposta di chiamata al Consiglio di amministrazione con pareri di autorevoli membri della comunità scientifica internazionale e di tutti i docenti del settore scientifico disciplinare dell’Ateneo (non solo del Dipartimento proponente)[16]. Se il Consiglio di amministrazione utilizzasse con rigore questa disposizione, essa potrebbe garantire il rispetto delle regole meritocratiche. Ciò dovrebbe essere praticato con procedure non meramente formali né elusive dello spirito dello Statuto già a cominciare dai reclutamenti programmati nel Piano, senza indulgere in concessioni alle regole di seniority o di rigida proporzionalità tra promozioni e abilitazioni (quest’ultima fortemente sostenuta da alcuni durante la discussione del Piano). Si eviterebbe così la temuta (da parte di B&D) irrilevanza degli Organi di governo nel processo decisionale di reclutamento e la deprecata “netta decentralizzazione”in capo ai Dipartimenti.

Non so se tutto ciò risponda alla “domanda più saliente” di B&D, ma spero che almeno contribuisca a confezionarne una utile all’Ateneo.


[1] Cristina Barbieri, in particolare, mi ha sollecitato ad esprimermi sulle prevedibili difficoltà di conciliare, nell’elaborazione dei modelli di riparto, gli interessi “particolari” verso criteri e indicatori .di favore per le varie anime o pari dell’Ateneo e l’interesse generale dello stesso.

[2] Nel linguaggio della mia disciplina si tratta della cosiddetta yardstick regulation usata ad esempio per regolamentare i prezzi delle public utilities. Dati molteplici soggetti che competono tra di loro, la performance di ciascuno viene comparata con quella degli altri e premiata o penalizzata sulla base della sua performance relativa (leggi: normalizzata sulla media).

[3] Lo stile di governance di cui sto parlando riproduce a livello locale quello da tempo adottato seppure troppo timidamente dal Miur negli ultimi decenni distribuendo quote crescenti di risorse secondo un sistema premiale

[4] Esempi: complementarietà e coordinamento con altri Atenei sulla didattica; perseguimento di progetti complessi e innovativi nella ricerca, internazionalizzazione della didattica tramite corsi in lingua inglese, e via dicendo.

[5] Oltre a questi SCS utilizza filtri di SSD nazionali e di sede accademica (il cui dizionario è stato perfezionato nel tempo per ridurre le omonimie intra-city).

[6] Si tratta delle stesse cautele metodologiche (omonimie, grado di copertura della produzione, scientifica, ecc.) riportate a commento degli indicatori riportati in http://www.unipv.eu/site/home/ateneo/organi-di-governo.html , Relazione sulle attività di formazione e ricerca e trasferimento tecnologico, pp. 36-37.

[7] La proposta al Collegio dei Direttori nella seduta del 12/7/2012 recitava infatti : “La sintesi della valutazione della ricerca in particolare è riassunta nella tabella sottostante che rappresenta il potenziale di ricerca (composto dai docenti e ricercatori, assegnisti e dottorandi, pesati in modo differente) corretto attraverso un indicatore di qualità che è la media degli indicatori normalizzati di successo PRIN e di valutazione CIVR-VQR o, alternativamente, quello elaborato a partire dal database Scholar Search utilizzato nell’ambito del Progetto sperimentale CENSIS.”. Il testo citato da B&D che presenta invece la proposta di utilizzo dell’indicatore come unica alternativa è ripreso da una versione preliminare del documento. Nella stessa seduta il Collegio, nel suo parere, proponeva poi “ di adottare il modello di valutazione dei dipartimenti proposto, utilizzando gli indicatori di ricerca e didattica elencati in allegato, optando quale indicatore qualitativo di correzione, accanto all’indicatore PRIN, quello utilizzato nel progetto sperimentale CENSIS”.

[8] Giuseppe De Nicolao nel suo intervento si Agorà del 14/9 cita la San Francisco Declaration on Research Assessment (http://am.ascb.org/dora/) in cui si riconosce l’utilità di indici bibliometrici aggregati sotto la condizione di una sufficiente copertura.

[9] Gli indici desunti da SCS per Aree e per Dipartimenti sono riportati, insieme agli indicatori desunti da CIVR-VTR in http://www.unipv.eu/site/home/ateneo/organi-di-governo.html, Relazione sulle attività di formazione e ricerca e trasferimento tecnologico, Tabb. 38 e 39 nella versione allegata al Consuntivo 2012.

[10] Ciò è particolarmente vero per alcune Aree come la 6 e la 13 nelle quali le varianze superano di molto quella media. In altre Aree eterogenee (come la 8 e la 11) il problema è stato risolto con la creazione di sub-Gev che hanno elaborato indicatori distinti. Nella 13 si è pure deciso di lavorare con sub-Gev distinti ma la media su cui si è normalizzato è stata unica per l’intera Area.

[11] Si noti che l’Area 14 è quella con la maggior percentuale di prodotti conferiti dal Gev alla peer review e dunque quella da cui ci si sarebbe attesi la massima difformità tra una valutazione di quel tipo e una di natura bibliometrica.

[12] Scendendo a dimensioni più basse, sarebbe opportuno correggere le differenze da eterogeneità con ulteriori normalizzazioni. La normalizzazione di SCS è appropriata per molte aree dove la distribuzione è piuttosto prossima a quella normale, però alcune distribuzioni come quelle dell’Area 9 e 13 sono bimodali e l’utilizzo della deviazione standard pone obiettivamente qualche problema.

 

[13] Naturalmente questo non è avvenuto con il Piano triennale proposto dalla governance in scadenza e approvato prima dell’estate, il cui scopo dichiarato era quello di definire un’anticipazione provvisoria di punti organico allo scopo di “salvare punti” che correvano il rischio di essere perduti. Non discuto qui l’obiezione che tale provvisorietà rischia di condizionare le future scelte della nuova governante, essendo convinto che gli scostamenti del futuro riparto dal nuovo, per quanto significativi, non saranno così drammatici.

[14] Naturalmente altra cosa sono i pesi nei riparti relativi a risorse per la sola didattica e per la sola ricerca.

[15] La risposta al quesito dovrebbe consistere in una opportuna normalizzazione dell’indicatore di reperimento fondi sulle medie di Area. Si sperava che nella VQR questa venisse fatta ma, ad una prima esplorazione, non trovo nulla di simile nei documenti a me noti. Infatti l’indicatore IRD2 che misura il successo nel reperimento dei fondi su bandi competitivi è definito come quota sulle Aree nazionali e non mi è del tutto chiaro, al momento, come sia stato costruito nel caso di Dipartimenti multi-Area. In ogni caso esso andrebbe, ai fini di riparti intra-Ateneo, ri-normalizzato tenendo conto del peso dell’Area locale su quella nazionale.

[16] L’Art. 22, comma 4, lettera c del nuovo Statuto recita infatti: “la proposta al Consiglio di amministrazione di chiamata dei professori di ruolo, adeguatamente motivata anche alla luce del giudizio di uno o più autorevoli membri della comunità scientifica internazionale, acquisito secondo le modalità stabilite dall’apposito regolamento, e corredata del parere dei docenti del medesimo settore scientifico disciplinare afferenti ad altri Dipartimenti “.

 

Questa voce è stata pubblicata in Interventi e contrassegnata con , , , , , , , , , , , , , . Contrassegna il permalink.

2 risposte a La replica di Lorenzo Rampa

  1. Pingback: Rampa in salita per il NuV | www.circoloerreraunipv.it

  2. Pingback: “Some like it wrong” – Risposta a Rampa | www.circoloerreraunipv.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.