Onestà, valore, affidabilità, giustizia, principio di beneficenza, rispetto, fair play, confronto tra pari, lealtà, decoro professionale, trasparenza, obbedienza alla legge, confidenzialità. Questi i principi che ispirano le buone prassi scientifiche.
Daniela Ovadia e Fabio Turone, giornalisti scientifici esperti di etica della ricerca, hanno affrontato con uno sguardo largo i temi che negli ultimi anni si sono fatti sempre più importanti nel dibattito scientifico nel libro “Scienza senza maiuscola. L’etica della ricerca per una cittadinanza scientifica” (Codice edizioni). Ne abbiamo parlato con Daniela Ovadia.
Partiamo dall’affermazione che lei cita nell’introduzione del suo libro. Nell’aprile 2020 il Ministro degli Affari regionali Francesco Boccia chiede “alla comunità scientifica, senza polemica” di dare “certezze inconfutabili, altrimenti non è scienza”. È possibile?
No, la scienza può solo dare delle indicazioni valide per il momento, perché le conoscenze sono in continuo divenire.
In quest’ultimo anno abbiamo visto come possono mutare le questioni oggetto di incertezza scientifica su cui c’è ricerca che va avanti, ma lo stesso principio vale anche per quelle che ci sembrano assodate: la ricerca a volte rivela sorprese, interpretazioni inaspettate. Quindi pensare che la scienza sia una dispensatrice di verità assolute, valide per sempre, non è possibile. Una scienza che non si mette in discussione non è scienza.
Inoltre, dobbiamo tenere presente che anche i dati scientifici non sono neutri, ma sono sempre soggetti a interpretazione perché poi anche il loro utilizzo va calato nella realtà. Faccio un esempio: la diffusione di un virus in contesto di una condizione di relativa sicurezza del sistema sanitario può essere molto meno preoccupante che in una condizione dove, ad esempio, mancano i letti in rianimazione. Quindi, il dato rimane lo stesso ma le decisioni da prendere, i comportamenti da mettere in atto possono essere completamente diversi. Questa idea che il dato scientifico sia “neutro”, “non soggetto a interpretazione” è di fatto un errore concettuale.
Secondo lei questa relatività della scienza è un concetto chiaro alla popolazione generale, o ancora è difficile da comprendere?
Purtroppo non è chiaro per niente, né alla popolazione generale né a una determinata parte della comunità scientifica. Capita che singoli scienziati, a volte anche molto influenti, tendano ad arroccarsi nella propria interpretazione della scienza e del dato, piuttosto che dire “mi sono sbagliato”, oppure “le condizioni sono cambiate” per paura di perdere autorità e quindi di mettere a nudo la scienza. È invece è necessario a mio avviso educare gli scienziati a non avere paura di mostrare il lato incerto della scienza e i cittadini ad accettarlo. La scienza è il miglior strumento che abbiamo per conoscere ciò che è meglio in un determinato momento ma non è uno strumento perfetto al cento per cento. È un’attività umana e come tale soggetta a variazioni ed errori.
Quali sono gli elementi di una corretta informazione scientifica?
È una questione complessa: oggi lo studio teorico della comunicazione della scienza dice che non c’è un unico modo di fare della buona comunicazione scientifica, ce ne sono tanti che rispondono ai contesti culturali diversi. Non è la stessa cosa fare comunicazione scientifica in una grande città o in paesino o scrivere in un giornale con grande tiratura piuttosto che su una rivista di settore. Il contesto culturale influenza il modo in cui viene recepito il messaggio. Se dobbiamo trovare un aggettivo per definire la buona comunicazione della scienza direi “sincera e trasparente”, una comunicazione che mostra le grandi conquiste ma anche le aree grigie, oppure le aree ancora inesplorate, le aree di non conoscenza.
Altro tema importante sono i conflitti di interesse, perché oltre a quelli palesi, ci sono anche quelli involontari legati al proprio ego e ai finanziamenti.
Questo è un tema classico dell’etica della ricerca che poi è il tema del nostro libro: i comportamenti degli scienziati che possono influenzare il risultato finale. I conflitti di interesse esistono, perché la scienza si fa anche con il denaro, come sappiamo. Ma ci possono essere anche conflitti originati, per esempio, dalla simpatia intellettuale per certe correnti di pensiero. Sono fenomeni normali, sono connaturati a qualsiasi attività lavorativa, per questo è importante regolamentarli e anche renderli espliciti quando è necessario. Ad esempio, nel campo in cui opero, tutti i medici sono obbligati, quando presentano dati a un congresso, a dire se hanno preso soldi e da chi, così chi ascolta può valutare se c’è stata influenza di questo contributo economico sulle opinioni delle persone. I conflitti non si possono abolire, vanno gestiti.
In questo ultimo anno e mezzo, i cittadini sono stati per la prima volta costretti a capire chi e quando ascoltare per poi decidere come comportarsi. Com’è andata complessivamente?
Beh, nel nostro Paese peggio che in altri posti, non tanto per colpa dei cittadini. Qualche colpa involontaria i cittadini ce l’hanno perché c’è un problema di mancanza delle conoscenze di base necessarie per riuscire a comprendere le informazioni. Ma il vero grosso problema è che da noi è mancata una regia della comunicazione scientifica, c’è stato proprio un “liberi tutti” a livello istituzionale, scientifico e politico e quindi la confusione che si è creata ha reso particolarmente complesso capire quali erano i limiti, e in questi limiti quali erano quelli reali, quali erano le informazioni corrette e quali quelle che invece venivano date per motivazioni ideologiche o di interesse personale.
Non è andata bene e credo che questi due anni saranno moto studiati sul piano della comunicazione scientifica proprio per la loro complessità e per il sostanziale fallimento, purtroppo.
Nella scienza, il fine giustifica i danni collaterali?
Questo è un tema molto dibattuto: io vengo da studi di bioetica, dove il fine non giustifica i danni collaterali. Per quanto riguarda la ricerca scientifica, questo tema si declina nella domanda: ho diritto a far male a essere umani nella sperimentazione di un farmaco che potrebbe fare bene a tantissime persone? Teoricamente la risposta è sempre no. Di fatto però abbiamo visto, anche in questi ultimi due anni, come davanti a una grande minaccia facciamo collettivamente scelte di maggior rischio: per esempio accettiamo di accelerare i criteri di registrazione di un determinato farmaco o vaccino, di fare una sorveglianza dopo la somministrazione, di fatto si tratta di un calcolo rischi-benefici. Purtroppo può capitare di avere un danno collaterale che però è commisurato, diciamo così, all’enorme guadagno in termini di vite umane dal fatto di aver accelerato i tempi di una determinata approvazione di farmaco. Esempi come questo si possono trovare in quasi tutti gli ambiti della scienza. In linea generale il fine non giustifica i mezzi, di fatto però si va a un compromesso di realtà.
Quest’ultimo periodo ci ha dimostrato che situazioni estreme come quelle della pandemia è in qualche modo lecito derogare alle norme etiche ormai date per scontate. Ma… fino a che punto?
Secondo me le norme bioetiche non dovrebbero mai essere date per scontate, dovrebbero sempre essere discusse con tutti i portatori di interesse. Non dovremmo dare per scontato che sia sempre lecito sempre accelerare un’approvazione di farmaci perché siamo tutti in grave pericolo. Dovremmo discuterne collettivamente e decidere collettivamente, a maggioranza, che cosa vogliamo come società, ma ci dovrebbe essere una sorveglianza esterna al sistema, sia da parte delle autorità preposte, sia anche nel dibattito pubblico, ed è questo che è mancato in Italia. Da esperta di bioetica mi è dispiaciuto molto che nel nostro Paese i cittadini sono stati visti come dei bambini ai quali bisognava dare regole certe e inderogabili. L’abbiamo visto nei giorni scorsi con la questione del richiamo per il vaccino Astrazeneca e l’imposizione manu militari di fare un protocollo misto, che è stato meno testato, per i minori di 60 anni. Eppure possono esserci validissime ragioni scientifiche che inducono qualcuno a preferire, anche per la seconda dose, il vaccino di Astrazeneca, piuttosto che un protocollo non del tutto studiato bene. Queste sono scelte che, in un contesto bioetico, devono essere lasciate al singolo perché stiamo parlando di margini di incertezza confrontabili, quindi di una scelta che uno deve fare per come si sente, invece proprio perché fatichiamo in questo Paese a gestire il dibattito pubblico sulle questioni bioetiche tendiamo ad avere dei policy maker un po’ impositivi. Nel senso che decidono una cosa, la impongono, e poi quando vedono che non è tollerabile una settimana dopo cambiano idea e ci lasciano scegliere. Queste cose non dovrebbero succedere perché sono frutto di un controllo sociale sulle scelte.
Nel vostro libro raccontate anche diversi casi di frodi scientifiche. Ci si interroga abbastanza su questo tema? Si fa abbastanza per porre i giusti correttivi?
Le frodi scientifiche sono un tema arrivato alla ribalta della comunità scientifica una trentina di anni fa. Ora sappiamo che sono relativamente frequenti, da varie indagini è emerso che si attestano intorno al 10 – 15% degli studi pubblicati, ovviamente con gravità di frode molto diversa: dal semplice stracciamento dei dati fino ad arrivare alle invenzioni di sana pianta. Di nuovo la comunità scientifica ha fatto fatica ad accettare non tanto il fenomeno che era noto, quanto la sua ampiezza, soprattutto per quanto riguarda alcune categorie come i dottorandi che sono molto soggetti a pressioni per pubblicare presto e bene. Ci sono delle sacche di fragilità che devono essere rafforzate con la formazione, con la creazione di organi di controllo negli istituti di ricerca e delle università, è una cosa in divenire mala strada è tracciata. C’è effettivamente una presa di coscienza, forse non ancora sufficiente, ma c’è.
*Photo di copertina by Benjamin Lehman on Unsplash