Andiamo oggi a commentare un articolo pro-sperimentazione animale apparso sul Quotidiano Sanità, “Sperimentazione animale. I risultati? Davanti ai nostri occhi”.
All’inizio, l’autore, per dimostrare la validità della SA, cita diversi esempi di scoperte che hanno avuto origine grazie a ricerche su animali.
Questa strategia, ovviamente, è fallace, si tratta infatti di dati aneddotici che non ci permettono di valutare efficacemente l’animale, per farlo servirebbe comparare il numero di successi assieme a quello dei fallimenti e poi trarne le conclusioni.
Egli, inoltre, commenta alcuni studi:
– Seok et al. Genomic responses in mouse models poorly mimic human inflammatory diseases. PNAS 26 febr 2013 vol 110 n°9 3507-3512.
– Hackam & Redelmeier. Translation of research evidence from animals to humans. JAMA 2006;296(14):1731-2.
– Pound et al. Where is the evidence that animal research benefits humans? British BMJ. 2004 February 28; 328(7438): 514–517.
– van Meer PJ, Kooijman M, Gispen-de Wied CC, Moors EH, Schellekens H. The ability of animal studies to detect serious post marketing adverse events is limited. Regul Toxicol Pharmacol. 2012 Dec;64(3):345-9.
– Van der Worp et al. 2011. Preclinical studies of human disease: time to take methodological quality seriously. J Mol Cell Cardiol. 2011 Oct;51(4):449-50.
Afferma, sul primo:
“lo studio sui modelli animali per le malattie infiammatorie riguarda in realtà un solo modello animale, il topoC57BL/6J;”
In realtà questo studio è stato solo uno dei molti fallimenti del modello animale, che non fa altro che aggiungersi agli altri: infatti, “the paper by Seok is not a stand-alone study, but it was triggered by worrying findings of 20 years of research, which suggested that non-predictive animal models might be the reason for the many clinical failures of new drugs in the field of sepsis.” e “back to stroke: how well do the animal models work? They work similar as in inflammation: not at all.” [1]
In definitiva, analizzando l’animale da una prospettiva globale, esso si rivela estremamente limitato e a più riprese fallimentare.
Passa dunque al secondo:
“Lo studio stesso di Hackman su JAMA parla di scarsa qualità di come vengono impostati certi studi sul modello animale e non critica lo stesso”
In primis è Hackam, e non Hackman.
In secondo luogo non è vero ciò che si dice, dato che il paper prende in considerazione proprio gli studi di alta qualità.
Infatti, gli autori del paper affermano:
“Finally, poor replication of even high-quality animal studies should be expected by those who conduct clinical research.”
“prende in considerazione un numero limitato di studi (76) in un arco di tempo limitato (20 anni, dal 1980 al 2000); decisamente pochi e decisamente un arco di tempo ridotto per vedere le conseguenze di uno studio in ambito clinico.”
In realtà anche articoli precedenti prendono in considerazione un numero simile di studi, e in un periodo ancora più breve, come Ioannidis JPA. Contradicted and initially stronger effects in highly cited clinical research. JAMA. 2005;294:218-228., dando addirittura una stima di successo maggiore.
Considerato dunque che Hackam prende in considerazione praticamente il doppio del tempo, facendo abbassare la soglia di successo dal 44% al 33%, si potrebbe pensare che un tempo maggiore potrebbe rivelare una stima di successo dell’animale ancora minore.
In aggiunta, Grant e colleghi hanno concluso che le ricerche di base necessitano di un periodo di circa 17 anni per avere un impatto in fase clinica, quindi il tempo preso in considerazione da Hackam e Redelmeier è adeguato [2] [3].
“lo studio di Pound sul BMJ non è esente da critiche in quanto tende a prendere ad esempio solo determinati risultati e si dimentica di riportare anche frasi come “There were no differences between the results of the animal experiments and clinical studies” presente nello studio sulla Nimodipina o “In fact, there were no differences between the results of these experiments (animals) and clinical trials” nel lavoro di Lucas sulla laserterapia.”
In realtà le citazioni dello studio della nimodipina e della laserterapia non erano collegate a una valutazione delle stesse, nel lavoro di Pound, semmai erano prove di situazioni in cui i trial clinici non erano stati preceduti dagli esperimenti su animali, ma erano stati eseguiti in contemporanea, così come afferma lo stesso articolo, nella parte delle implicazioni:
“Le prove cliniche della nimodipina e della terapia laser di basso livello sono state condotte contemporaneamente agli studi su animali, mentre quelle sulla rianimazione con fluidi, sulla terapia trombolitica e sugli antagonisti dell’endotelina sono state intraprese malgrado fossero disponibili prove di effetti dannosi sugli animali. Ciò indica che i dati derivanti dagli animali sono stati considerati non pertinenti, il che fa sorgere dubbi sul motivo che aveva spinto a intraprenderli e mina alla base il principio che gli esperimenti sugli animali siano necessari allo sviluppo della medicina umana.”
In parole povere, non si valuta l’esito di queste ricerche, ma si fa notare come venga percepita dal ricercatore stesso il risultato su animali come qualcosa di non pertinente, di non necessario.
Ovviamente, per valutare l’effettiva utilità della SA, non possiamo prendere singoli casi fuori dai loro contesti, ma dobbiamo valutarli in maniera globale, pertanto l’affermazione di critica all’articolo di Pound non significa nulla.
“lo studio di Van Meera […] elogia il modello animale per quanto riguarda lo studio delle dosi terapeutiche e gli effetti legati alla farmacodinamica, ossia al meccanismo d’azione del farmaco”
Dove sarebbe scritto questo? Soprattutto la farmacodinamica nell’intero articolo non viene mai citata, se non una volta, senza alcuna valutazione del modello, nella sezione “Metodi”:
“Primary and secondary pharmacodynamic data, safety pharmacology data, and single and repeat dose toxicology data were reviewed to identify in vivo events in any rodent or non-rodent species and at any dose or time point that could be considered to be associated with the SAR described in the Product Safety Announcement or Direct Healthcare Practitioner Communications.”
Il meccanismo d’azione viene citato solo una volta e non in relazione agli animali, quindi dove lo loderebbe?
A noi sembra invece che il paper affermi la fallacia della SA, infatti dice:
“We showed that the animal studies performed to evaluate the safety of new small molecule drugs are not sensitive enough to predict post-marketing SARs. Therefore, it is not relevant to include animal study data for prospective pharmacovigilance studies.”
Inoltre, accenna addirittura alla necessità di superare l’animale al più presto:
“From this, possibilities based on scientific facts may develop which allow new technologies to be implemented that predict the safety and efficacy of therapeutics equal to or better than animal studies do.”
“il lavoro di Van der Woop non critica il modello animale in se’ ma la ridotta capacità traslazionale di studi sul modello animale in ambito cardiologico (in particolare si concentra sugli infarti) a causa di bias quali la scarsa qualità di alcuni studi, la non riproducibilità di alcune condizioni importanti nella pratica clinica (per esempio l’utilizzo di topi “giovani” per pat
ologie che interessano soggetti anziani), etc; si criticano quindi le modalità con cui vengono fatti gli esperimenti e non l’uso dell’animale stesso;”
D’altra parte lo stesso autore, in un altro articolo, oltre a criticare la qualità metodologica degli studi su animali, afferma che, anche con eventuali miglioramenti, il risultato del modello animale non risulterebbe comunque soddisfacente, ma avrebbe una traslazione di appena una volta su 3:
“In a review of animal studies published in seven leading scientific journals of high impact, about one-third of the studies translated at the level of human randomised trials, and one-tenth of the interventions, were subsequently approved for use in patients [1]. However, these were studies of high impact (median citation count, 889), and less frequently cited animal research probably has a lower likelihood of translation to the clinic. Depending on one’s perspective, this attrition rate of 90% may be viewed as either a failure or as a success, but it serves to illustrate the magnitude of the difficulties in translation that beset even findings of high impact” [4].
Bibliografia:
[1] Leist M, Hartung T. Inflammatory findings on species extrapolations: humans are definitely no 70-kg mice. Arch Toxicol. 2013 Apr;87(4):563-7.
[2] Grant J, Cottrell R, Cluzeau F, Fawcett G. Evaluating “payback” on biomedical research from papers cited in clinical guidelines: applied bibliometric study. BMJ 2000, 320(7242):1107-1111.
[3] Grant J, Green L, Mason B. Basic research and health: a reassessment of the scientific basis for the support of biomedical science. Research Evaluation 2003, 12(3):217-224.
[4] Van der Worp, H. B., Howells, D. W., Sena, e. S., et al. (2010). Can animal models of disease reliably inform human studies? PLoS Med 7, e1000245.