Pro-Test Italia

La ricerca di base non serve a niente?!

Una delle statistiche più abusate e facilmente demolibili degli anti-sperimentazione animale è quella di Contopulos-Ioannidis1 sulla traduzione della ricerca di base, secondo la quale la sperimentazione animale per la ricerca di base condurrebbe a risultati clinici solo in un caso su 25000, lo 0.004% dei casi.
Come argomento, mi ricorda un po’ la statistica dei farmaci ritirati dopo la commercializzazione, ovvero farmaci ritirati dopo aver superato i trial clinici, che per qualche ignoto motivo sarebbero un fallimento non dei trial clinici, ma della sperimentazione animale. Anche dopo varie confutazioni definitive, questo argomento fallace viene ancora usato, e c’è poca speranza che smetta di esserlo. Questa non è una buona ragione per non evidenziarlo fino alla nausea, però.

Una panoramica molto breve basterà per capire di che si tratta quando si cita questa statistica un po’ fantasiosa, e poco di più ci vorrà per capire perché non c’entra niente con la sperimentazione animale.
Contopulos-Ioannidis fece ormai nel 2003 una systematic review nella quale analizzava la frequenza di traduzione della ricerca di base in applicazioni cliniche in un periodo di tempo di vent’anni. Il metodo consisteva nel prendere tutti gli articoli in cui si affermava che la scoperta aveva “potenzialità per terapia o prevenzione” usciti in cinque anni, fra il 1979 e il 1983, e vedere a distanza di vent’anni quanti di essi avessero effettivamente prodotto un risultato clinico. Di questi articoli, 101 in tutto, 27 hanno fruttato un trial clinico, 19 dei quali con risultati positivi. 5 sono stati approvati per uso clinico, 1 viene usato regolarmente nella pratica medica.

Dunque abbiamo che degli studi esaminati da Ioannidis il 27% ca. hanno subito un trial clinico, il 19% ca, uno su cinque, sono stati di successo, di questi il 5% sono ora approvati per l’uso, e infine l’1% è utilizzato comunemente.
Ora, chi conosce un po’ l’argomento com’è formulato dagli anti-SA noterà un problema, anzi, più di uno. Da dove viene fuori la cifra che leggiamo sui siti animalisti, secondo la quale la ricerca di base su animali avrebbe un tasso di traduzione dello 0.004%? Non si è mica parlato di ricerca su animali, e gli studi analizzati sono solo 101, il tasso di traduzione minimo sarà 1% oppure sarà 0.
Vediamo quali sono gli errori nell’uso di questa statistica.

ERRORE 1: LO 0,004%
Quel numero bassissimo, lo 0.004% viene fuori perché non si considera il campione come i 101 studi analizzati da Ioannidis, ma si prende il totale del 25000 articoli fra i quali Ioannidis ha selezionato i 101 da analizzare. La selezione è avvenuta, come egli stesso ha scritto, basandosi sul fatto che tali articoli affermassero apertamente di avere potenziale terapeutico. Può questo essere un buon criterio per selezionare quali studi DAVVERO avessero potenziale terapeutico? La risposta è molto semplicemente no, non è così. La ricerca di base non nasce proprio con l’idea di essere “tradotta” in un trattamento terapeutico, è “curiosity driven”, si fa per acquisire informazioni che poi saranno usate dai clinici per produrre cure. Non è possibile sapere in anticipo quali sono davvero gli studi che saranno utili dal punto di vista terapeutico (troppo comodo altrimenti, no?). Viceversa, però, tutte le applicazioni clinicamente rilevanti affondano nella ricerca di base.
Dunque Ioannidis è stupido e i referee che hanno accettato l’articolo più stupidi di lui? No. Ovviamente Ioannidis fra 25190 articoli doveva pur usare un qualche metodo per selezionare quelli che potenzialmente mostrassero maggiore interesse per il suo intento, ma il suo intento non era verificare se la ricerca di base servisse a qualcosa (sarebbe stata una domanda idiota, che serva è ovvio, tutta la pratica clinica si fonda sulla ricerca scientifica di base sin dai tempi di Virchow), quanto verificare la scala temporale necessaria per vederne i risultati.
Potremmo effettivamente assumere, ma non concedere, che il metodo di Ioannidis abbia selezionato un sottoinsieme di scoperte di base con probabilità di traduzione più alta della media, e dunque utili per la verifica che intendeva svolgere. Questo non si traduce automaticamente in “tutte le altre non sono servite a niente”, al massimo si traduce in “tutte le altre hanno probabilmente avuto un tasso di traduzione più basso”. Allora, se vogliamo essere scienziati seri, dobbiamo prendere i risultati di Ioannidis con serietà e fare valutazioni rigorose basandoci sugli studi che egli ha analizzato nel dettaglio, non sugli altri 25000 che non ha nemmeno letto; e quello che non possiamo dedurre dal nostro campione non possiamo generalizzarlo. Questo è stato fatto con estrema correttezza da Understanding Animal Research QUI (si consiglia la lettura).

ERRORE 2: IL PERIODO DI TEMPO ANALIZZATO
Si può ritenere ragionevole la scelta di analizzare un periodo di soli vent’anni per la traduzione clinica di una scoperta di base, quanto una decina d’anni è di norma appena sufficiente a far approvare un farmaco che già esiste? Sì, è ragionevole se il nostro intento è dimostrare che il processo di traduzione della ricerca di base in pratica clinica è lento. E questo era il punto di Ioannidis, che infatti non ha mica smesso di studiare la faccenda e ha scoperto, in un’altra review più recente2, che il tempo necessario per tradurre una scoperta di base in un’applicazione clinica è di solito fra i 24 e i 27 anni, con una forte variabilità fra i 21 e i 50. Dunque vent’anni erano effettivamente sotto la soglia per la maggior parte delle applicazioni, Ioannidis stesso lo ha dimostrato. Ma se volessimo usare questo metodo per dimostrare che la ricerca di base non viene tradotta affatto, allora analizzare solo vent’anni diventa un periodo incredibilmente corto: alcune scoperte hanno richiesto 221 anni per essere utilizzate!

ERRORE 3: IL TRIAL CLINICO
Di 101 papers che prospettavano immediate applicazioni cliniche, solo 27, quindi circa il 27% ovviamente, hanno subito un trial clinico. Da ciò gli anti-SA deducono in qualche modo che tutti gli altri, se avessero subito un trial clinico, avrebbero fallito. E qualcosa in questa logica sfugge… gli altri 74 non si è provato a riprodurli sull’uomo, dunque non sappiamo se avrebbero funzionato. Questa cifra non supporta l’argomento che ci sia un errore scientifico dietro la mancata traduzione. Anzi, al contrario, lo stesso Ioannidis identifica un fattore fortemente discriminante nella velocità con cui una scoperta diviene oggetto di un trial clinico nel collegamento fra lo scopritore e l’industria farmaceutica. Diciamolo, se conosci i gruppi giusti diventa più facile tentare di tradurre la tua ricerca in clinica, ma questo nulla c’entra con l’effettiva validità e utilità della tua scoperta. Vediamo la cosa da un altro lato, invece, più rigoroso: se su 27 che hanno subito un trial clinico 19 hanno avuto esito positivo ,vuol dire che abbiamo un tasso di traduzione efficace del 70% (!). Se selezioniamo i soli cinque approvati per l’uso sull’uomo, allora siamo comunque circa al 20% di successi. Anche se ne scegliessimo solo uno, saremmo comunque intorno al 5%… che vedremo adesso che non sarebbe necessariamente male.

ERRORE 4: METODO SCIENTIFICO E METODO ALTERNATIVO
Come al solito, l’efficienza di un metodo scientifico va valutata non in assoluto, ma in rapporto al miglior metodo alternativo che conosciamo. Se anche supponessimo davvero, senza alcuna base per farlo, che su 25000 articoli solo 5 abbiano fruttato una scoperta clinica, non è detto che questo numero sia necessariamente basso. Per saperlo dobbiamo confrontare questo tasso di successo col metodo migliore che possediamo a parte quello, e se non usiamo la ricerca di base per indirizzarci, ci resta solo il muoverci completamente a caso. Siamo sicuri che su 25000 metodi terapeutici scelti completamente a caso fra tronchetti della fortuna, monetine magiche, bicarbonato in endovena e pizza ai fiori di zucca troveremmo cinque metodi che curano qualcosa? Più verosimilmente non ne troveremmo nessuno. Certo potremmo restringere il campo delle cure plausibili, escludendo dunque monetine magiche e pizza ai fiori di zucca, ispirandoci a nozioni pregresse sul funzionamento degli organismi viventi. Ma quella sarebbe ricerca di base.

ERRORE 5: IL “TRANSLATIONAL FACTOR”
Non si tiene conto che, come ho già accennato, ci sono anche motivi pratici o anche solo burocratici che ostacolano o facilitano la traduzione di risultati dalla ricerca di base alla pratica clinica. Il lavoro di Ioannidis mette in luce alcuni aspetti critici proprio della parte “non scientifica” di questo iter. Ma se vogliamo avere una misura puramente attinente alla possibilità scientifica della traduzione da ricerca di base a ricerca clinica, è più interessante un’analisi come quella fatta molto recentemente da Weber3, che si è preso la briga di studiare sull’intero archivio di Pubmed (e altri, più di 20 milioni di articoli4) tutta la struttura dei flussi di informazioni che da altre forme di ricerca portano alla pubblicazione di risultati clinici. Weber ha classificato le pubblicazioni in base all’argomento trattato, definendo così le categorie di ricerca come “animale” (A), “cellulare” (C), “umana” (H) e generando così anche una serie di categorie intermedie, AC (animale-cellulare), AH (animale-umana), CH (cellulare-umana), ACH (animale-cellulare-umana). Le frazioni di articoli in ciascuna delle categorie che attraverso una serie più o meno lunga di citazioni arrivano prima o poi a produrre una pubblicazione in ambito clinico umano, ovvero quello che Weber chiama il “Translational Factor”, sono 19.8% (A), 37.9% (C), 39.2% (AC), 24.9% (AH), 36.4% (CH), 43% (ACH).
Non deve sorprendere il livello di traduzione apparentemente basso della categoria A, visto che in essa sono raggruppati per lo più articoli su riviste di medicina veterinaria, mentre è del tutto attesa l’ottima performance delle altre categorie, fra cui spiccano ACH e AC. Altro punto interessante da notare: AC, una delle categorie più produttive, è anche, sempre stando a Weber, la categoria più lontana dalle applicazioni cliniche e che contiene il maggior numero di articoli classificabili come “ricerca di base”. Siamo sorpresi? No, è del tutto ovvio! Prima o poi i dati della ricerca di base verranno usati per forza, perché rappresentano il nostro corpus di conoscenze di partenza, senza quelle conoscenze non si fa nulla.
Infine, notiamo la cosa più importante: le percentuali di pubblicazioni che subiscono prima o poi una traduzione non sembrano così diverse, sul totale delle pubblicazioni indicizzate su alcuni dei più grandi archivi scientifici del mondo, dal numero che aveva trovato Ioannidis esaminando soltanto 101 articoli che si supponeva avessero un alto potenziale per la ricerca clinica. Sembra dunque confermata l’assoluta infondatezza (che noi potevamo in effetti già sospettare fortemente) della pretesa che gli altri 25089 articoli che Ioannidis non ha esaminato avessero un tasso di traduzione in prove cliniche uguale a 0. Nella media, considerando periodi più lunghi analizzati e un numero molto maggiore di articoli, la traduzione della ricerca di base avviene, anche se possono volerci periodi molto lunghi, fra il 20 e il 43% dei casi, rendendo dunque credibile la figura del 27%.
E dunque anche assai più confortante la percentuale di risultati positivi, che risulta almeno due o tre se non quattro ordini di grandezza maggiore rispetto al famoso 0.004%.

ERRORE 6: I PRECONCETTI
Infine, al di là di tutti i calcoli che possiamo fare (e che per come la vedo io dimostrano una volta di più come i numeri, se usati male, possano confondere l’ovvio molto di più di quanto non sappiano chiarificare il nebuloso) voglio fare presente il punto in assoluto più importante nella critica all’uso anti-SA del lavoro di Ioannidis, nonché il più interessante dal punto di vista “psicologico”: Ioannidis non è un animalista, non era sua intenzione, come lo è per gli anti-SA, dimostrare un preconcetto per cui la sperimentazione animale è inutile. Infatti nel suo studio non fa alcuna differenza fra studi effettuati su animali e effettuati in vitro, hanno lo stesso tasso di traduzione clinica. Quindi su che diavolo di basi gli anti-SA pretendono di usare lo studio di Ioannidis specificamente contro la Sperimentazione Animale? È nonsense puro e semplice. Ma che ci provino comunque ci dice una cosa molto interessante sul loro modo di ragionare: ciò che gli interessa è andare contro alla sperimentazione animale. Anche a costo di doversela prendere con tutta la ricerca scientifica mai fatta nella storia. Nessun problema, insomma, a buttare via il bambino con quella che per loro è l’acqua sporca.
Noi abbiamo sempre sostenuto quella che per gli addetti ai lavori (inclusi gli anti-SA, anche se lo negano) è un’ovvietà, e cioè che i modelli animali sono preziosissimi e insostituibili per la scienza. Fin quando possono, i nostri oppositori parleranno soltanto di test di tossicità e simili cercando di recitare il ruolo di chi “salva la scienza, ma non i test di tossicità”. Ma se è necessario, se gli si dimostra, come è dimostrato, che la scienza tutta ha bisogno dei modelli animali per andare avanti, allora diranno tranquillamente che la scienza non serve a nulla, per loro non è un problema. Anzi, è iniziato tutto proprio da uno, Hans Ruesch, che sosteneva che la scienza medica non avesse scoperto o fatto mai nulla di utile, che metteva “la scienza medica sotto accusa”; non la sperimentazione animale e basta, la scienza medica; quasi a ricordarci la sua piena consapevolezza che non si poteva separarla dalla sperimentazione animale. È legittimo, ancorché poco intelligente, voler buttar via tutta la ricerca biomedica della storia. Non è legittimo vantarsi di essere “scientifici” nel farlo, quindi se qualcuno vi riporta questa statistica per attaccare la SA non lasciate mai che glissi su questo punto: non sta attaccando la sperimentazione animale, sta attaccando la ricerca in toto. E quando uno dice che la ricerca non serve a niente, la via della scienza l’ha abbandonata sicuramente.

Ora, il solo fatto che si voglia attaccare la sperimentazione animale e dimostrare la superiorità di quella in vitro (gli anti-SA non ammetteranno mai che la ragione per cui insistono sui metodi in vitro è solo che sono contrari alla sperimentazione su animali, e non che abbiano particolare fiducia in essi) con un articolo che non mostra alcuna differenza fra metodi animali ed in vitro sarebbe sufficiente a screditare quest’uso della statistica. Ma questo non è l’unico modo in cui viene snaturata, come si è visto; si vuole infatti trasforma uno studio che risponde alla domanda sperimentale “quanto tempo ci vuole per tradurre la ricerca di base in pratica clinica?” in uno studio che dovrebbe rispondere alla domanda “la ricerca di base può dar luogo a pratica clinica?”. Questo è un modo di procedere scientificamente del tutto inelegante e metodologicamente sbagliato. Se si vuol rispondere ad un’altra domanda, bisogna usare un’altra metodologia. Posso suggerirne una? Prendere tutte le pratiche mediche in uso oggi e vedere quante di esse non sono state scoperte facendo riferimento a conoscenze pregresse derivate dalla ricerca di base. Sono molto curioso di vedere i risultati.

Dr. Alberto Ferrari – Comitato Scientifico Pro-Test Italia

Bibliografia e Note
  1. Contopoulos-Ioannidis DG, Ntzani E, Ioannidis JP (2003) Translation of highly promising basic science research into clinical applications. The American journal of medicine 114:477-484.
  2. Contopoulos-Ioannidis DG, Alexiou GA, Gouvias TC, Ioannidis JP (2008) Medicine. Life cycle of translational research for medical interventions. Science 321:1298-1299.
  3. Weber GM (2013) Identifying translational science within the triangle of biomedicine. Journal of translational medicine 11:126.
  4. Ovviamente non li ha letti tutti. Ha sfruttato il sistema di indicizzazione delle pubblicazioni, che distingue fra ambiti di ricerca diversi.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 3.0 Italia.

Annunci

I commenti sono chiusi.

%d blogger hanno fatto clic su Mi Piace per questo: