Archivi del mese: marzo 2014



A causa di impegni sempre più pressanti non garantiamo più il regolare aggiornamento del blog, che tuttavia resterà visibile.

Grazie mille per l’attenzione e buona permanenza.

– Gli Admin di “Pro-Alternative alla Sperimentazione Animale”

Studi di knockout genico usando modelli 3D di cellule staminali in vitro

[Genever PG. The generation of three-dimensional tissue structures with mesenchymal stem cells. Altern Lab Anim. 2010 Dec;38 Suppl 1:31-4.]

Full Text:

Mesenchymal stem cells (MSCs) are multipotent stem cells, found in the bone-marrow and other adult tissues, which give rise to various cell lineages. Although MSCs are biologically important, and may have widespread therapeutic potential, they are not well-characterised, particularly in terms of their cell surface receptors and in vivo phenotype. We aimed to develop a three-dimensional (3-D) MSC in vitro model, in order to understand the factors involved in the regulation of lineage specification routes. A suitable model, which replicates the MSC microenvironment as accurately as possible, will allow more detailed investigations into the phenotype of the cells. Our MSC spheroids appear to have an enhanced mesenchymal differentiation compared to two-dimensional MSC monolayers. With this in vitro system, it is possible to perform real-time analysis of cellular differentiation status. MSC spheroids may also be amenable for use in high-throughput assays. A more-recent research project aims to generate knockout micro-tissues, based on human 3-D MSCs, as an alternative to animal studies.


Da NC3Rs ( 

The tissues in our bodies are three-dimensional (3D) arrays of different cell types, whose behaviour is largely determined by the genes they express. Understanding the function of individual genes of cells within tissues is essential if we are to know more about human health and disease, and the development of new and better treatments. A common experiment to determine gene function is to “knockout” specific genes in animal models, usually mice, and examine the effects. However, producing knockout mice is difficult, inefficient, requires large numbers of animals and results may not translate satisfactorily to human physiology. Adult human stem cells can now be grown in the laboratory and induced to generate different tissue types. We have isolated so-called mesenchymal stem cells (MSCs) from human bone marrow and generated an immortal MSC “line” that appears to live forever when grown in a culture dish. This provides us with an opportunity to perform long-term genetic manipulations, which would not normally be possible in standard short-lived cells. We have also developed new techniques where MSCs in specialised Petri dishes can be coaxed into forming 3D tissues containing both bone and cartilage, in a manner similar to how our skeletons form. In this project, we will use sophisticated gene targeting methods to knockout particular genes in the MSCs that are normally involved in the development of healthy and diseased skeletons. We will then find out how the gene knockouts affect the ability of the MSCs to form 3D microskeletons in the laboratory. This system will using human stem cells, capable of complex tissue formation, in a system that is highly controllable and recognises the 3D nature of true tissues. If successful, this work will have far-reaching implications for cost and efficiency of biological research, our understanding of gene function and will contribute significantly to the replacement of mouse knockout experiments.

Validazione Retrospettiva: per valutare al meglio i metodi alternativi serve una validazione migliore

[Hartung T. Evidence-based toxicology – the toolbox of validation for the 21st century? ALTEX. 2010;27(4):253-63.]

Full Text:


Validation has become a primary driver of the evolution of toxicological methods. Agreement at OECD level currently requires validation of new approaches for consideration in test guideline development. Several examples of this exist. However, the toxicology in the 21st century movement, prompted by the 2007 NRC/NAS vision document, might lead to a revolutionary change in the toxicological toolbox. The challenge is whether the validation process, as it has been formalized over the last two decades, meets the needs for this paradigm shift. 

The concept of evidence-based medicine (EBM) has emerged from clinical medicine, which retrospectively assesses the evidence of adequacy of a given approach. This is not typically done in prospective studies – the equivalent of validation studies might be multicenter randomized trials. Evidently, where such unambiguous evidence is available, no other assessment is necessary. EBM, however, has developed procedures, including meta-analysis, to collect and evaluate all the available evidence where no such definitive study is available. The recent successful introduction of retrospective validation, i.e. the collection and evaluation of existing evidence from various sources, represents a step in this direction. Here, we will explore new toxicological approaches via evidence-based toxicology (EBT).

Nel testo:

“1. Traditional validation allows only substituting a method with something similar and does not accommodate paradigm shifts due to its comparison to the traditional test. The predictivity of a test approach can thus not be changed.
2. The pressing need to renovate methods for regulatory toxicology calls for information-rich, complex methods. These represent a challenge for quality assurance (such as GLP) and validation. While test definition and reproducibility can be handled similarly, scientific relevance will need to be stressed to compensate for the difficult predictive relevance in the absence of a reference test.
[…] 4. We need to develop meta-analysis tools for retrospective validation and EBT. They will be most useful for the risk assessment process for individual compounds, where several studies are available. For this purpose, the quality score concept for toxicological studies needs to be further developed.”

PopGen: simulatore della popolazione umana nella farmacologia

[McNally K, Cotton R, Hogg A, Loizou G. PopGen: A virtual human population generator. Toxicology. 2014 Jan 6;315:70-85.]


The risk assessment of environmental chemicals and drugs is moving towards a paradigm shift in approach which seeks the full replacement animal testing with high throughput, mechanistic, in vitro systems. This new vision will be reliant on the measurement in vitro, of concentration-dependent responses where prolonged excessive perturbations of specific biochemical pathways are likely to lead to adverse health effects in an intact organism. Such an approach requires a framework, into which disparate data generated using in vitro, in silico and in chemico systems, can be integrated and utilised for quantitative in vitro-to-in vivo extrapolation (QIVIVE), ultimately to the human population level. Physiologically based pharmacokinetic (PBPK) models are ideally suited for this and are obligatory in order to translate in vitro concentration-response relationships to an exposure or dose, route and duration regime in people. In this report we describe PopGen, a virtual human population generator which is a user friendly, open access web-based application for the prediction of realistic anatomical, physiological and phase 1 metabolic variation in a wide range of healthy human populations. We demonstrate how PopGen can be used for QIVIVE by providing input to a PBPK model, at an appropriate level of detail, to reconstruct exposure from human biomonitoring data. We discuss how the process of exposure reconstruction from blood biomarkers, in general, is analogous to exposure or dose reconstruction from concentration-response measurements made in proposed in vitro cell based systems which are assumed to be surrogates for target organs.


[Willmann S, Höhn K, Edginton A, Sevestre M, Solodenko J, Weiss W, Lippert J, Schmitt W. Development of a physiology-based whole-body population model for assessing the influence of individual variability on the pharmacokinetics of drugs. J Pharmacokinet Pharmacodyn. 2007 Jun;34(3):401-31.]


In clinical development stages, an a priori assessment of the sensitivity of the pharmacokinetic behavior with respect to physiological and anthropometric properties of human (sub-) populations is desirable. A physiology-based pharmacokinetic (PBPK) population model was developed that makes use of known distributions of physiological and anthropometric properties obtained from the literature for realistic populations. As input parameters, the simulation model requires race, gender, age, and two parameters out of body weight, height and body mass index. From this data, the parameters relevant for PBPK modeling such as organ volumes and blood flows are determined for each virtual individual. The resulting parameters were compared to those derived using a previously published model (P(3)M). Mean organ weights and blood flows were highly correlated between the two models, despite the different methods used to generate these parameters. The inter-individual variability differed greatly especially for organs with a log-normal weight distribution (such as fat and spleen). Two exemplary population pharmacokinetic simulations using ciprofloxacin and paclitaxel as model drugs showed good correlation to observed variability. A sensitivity analysis demonstrated that the physiological differences in the virtual individuals and intrinsic clearance variability were equally influential to the pharmacokinetic variability but were not additive. In conclusion, the new population model is well suited to assess the influence of individual physiological variability on the pharmacokinetics of drugs. It is expected that this new tool can be beneficially applied in the planning of clinical studies.

Errori statistici comuni degli oppositori

Oggi andremo a commentare il post “Errori statistici comuni degli oppositori” di Pro-Test Italia.

Dato il linguaggio complesso, senza perdere ulteriore tempo riportiamo il loro stesso glossario (che effettivamente è fatto abbastanza bene, dando a Cesare quel che è di Cesare), che spiega quali siano i parametri presi in considerazione:

La prevalenza: la frequenza in popolazione della caratteristica che vogliamo individuare. Nell’esempio dei farmaci, la popolazione sono tutte le sostanze farmacologicamente attive della terra, la prevalenza è la frazione di queste sostanze che hanno un uso che a noi interessa.

La sensibilità: la frazione dei Veri Positivi sul totale dei casi che mostrano la caratteristica di interesse. Nell’esempio dei farmaci, prendiamo tutti i farmaci che funzionano e contiamo quanti di essi in percentuale sono stati correttamente identificati dal test.

La specificità: come la sensibilità, ma per i “no”: la frazione di Veri Negativi sul totale dei casi che NON mostrano la caratteristica di interesse. Nell’esempio dei farmaci, prendiamo tutti i farmaci che NON funzionano e contiamo quanti di essi in percentuale sono stati correttamente identificati dal test come non funzionanti.

Il Valore Predittivo Positivo (PPV): La frazione dei Veri Positivi sul totale dei positivi al test. Prendiamo tutti i farmaci che secondo il test funzionano e contiamo quanti di essi effettivamente funzionano.

Il Valore Predittivo Negativo (PPN): La frazione dei veri Negativi sul totale dei negativi al test. Prendiamo tutti i farmaci che secondo il test non funzionano e contiamo quanti di essi effettivamente non funzionano.

Tendenzialmente le principali tesi in difesa della sperimentazione animale dell’articolo sono le seguenti:

  1. Se un test ha un valore basso (es. 5%), basta considerare i risultati positivi come negativi e viceversa per avere un valore diametralmente opposto e dunque superiore (es. 95%).
  2. Meglio avere un minimo risultato che nessuno, anche un test con forti limitazioni aumenta comunque le probabilità di far arrivare nelle fasi successive un farmaco buono rispetto al nulla.
  3. Nei test di validazione si fa in modo che i farmaci efficaci e quelli inefficaci o tossici siano esattamente in uguale proporzione nel campione testato, mentre normalmente non sappiamo qual è la proporzione tra sostanze dannose o inefficaci e sostanze efficaci. 
  4. Se la sperimentazione animale ha sensibilità minima può comunque avere specificità alta e, se ad esempio altri test avranno sensibilità alta e minima specificità, potranno compensarla. La SA dunque non è disprezzabile, ma non la si deve analizzare da sola.
  5. I metodi alternativi vanno validati testandoli con il miglior metodo disponibile, la SA.

Iniziamo dal primo punto:

Se un test ha un valore basso (es. 5%), basta considerare i risultati positivi come negativi e viceversa per avere un valore diametralmente opposto e dunque superiore (es. 95%).

Le obiezioni a questa affermazione sono 3:

1) Come si applica questo principio nei test con valori attorno al 50%? Pur effettuando questa operazione, il dato di previsione rimane scadente.

2) Perché non approvare allora qualsiasi metodo alternativo con valori attorno al 10% e “rigirarlo”? L’animale, in fondo, non è una spesa? Allora perché non rimpinguare le tasche con questo metodo?

Ma lo spieghiamo adesso perché ciò non è possibile:
3) Semplicemente perché non sappiamo se le sostanze scartate dall’animale sono tossiche/inefficaci o efficaci, e, nel caso fossero tutte inefficaci o dannose (sebbene non lo si possa calcolare a priori e quindi è un dato inconoscibile, visto che bisognerebbe testare tutte le sostanze, sia scartate che non, sull’uomo, per sapere se siano o meno utili) ed essendo di più le sostanze scartate di quelle che arrivano all’uomo, l’animale potrebbe fare anche peggio di adesso. Quest’operazione dunque non necessariamente supera i limiti di una metodologia quale la SA, potrebbe invece addirittura peggiorarli.
Affermano, inoltre, sempre sullo stesso argomento:

“la realtà è che quando si tirano fuori cifre di accuratezza che appaiono troppo basse l’accuratezza è stata calcolata male (molti ad esempio conteggiano arbitrariamente fra i “fallimenti” della sperimentazione animale quei casi in cui alla sperimentazione non è seguito un trial clinico, e quindi in realtà mancano riscontri, ma non abbiamo riscontri negativi)”

In primis, ciò va dimostrato, in secondo luogo tale analisi fatta con il senno di poi va in entrambe le direzioni. Quante sostanze hanno portato a interventi clinici che hanno danneggiato le persone e quanti di questi incidenti sono stati scoperti solo dopo le revisioni sistematiche? Infine, più tempo passa, meno possibilità ci sono che una sostanza passi in fase clinica, e spesso ciò avviene perché non la si ritiene abbastanza utile.

Passiamo alla seconda tesi:

Meglio avere un minimo risultato che nessuno, anche un test con forti limitazioni aumenta comunque le probabilità di far arrivare nelle fasi successive un farmaco buono rispetto al nulla.

Certamente senza alcuna protezione ci sarebbe il rischio di immettere più farmaci tossici sul mercato e quindi è meglio una protezione limitata (la SA) che nessuna protezione, d’altra parte però ciò non può essere una giustificazione sulla sufficiente validità del modello animale. Infatti, come già spiegato nei moltissimi articoli di questo sito, questa metodologia ha tantissimi limiti e l’eccessiva fiducia sul suo potenziale può provocare danni alla salute umana (ad esempio, facendo scartare trattamenti utili all’Uomo o non proteggendolo da composti nocivi).
Pertanto è necessario rendersi conto che l’animale va al più presto sostituito e che si devono investire sempre più risorse nell’implementazione e nello sviluppo delle metodologie avanzate.

Passiamo dunque alla terza affermazione:

Nei test di validazione si fa in modo che i farmaci efficaci e quelli inefficaci o tossici siano esattamente in uguale proporzione nel campione testato, mentre normalmente non sappiamo qual è la proporzione tra sostanze dannose o inefficaci e sostanze efficaci. 

In effetti l’animale non è mai stato sottoposto ad una valutazione dove si sapesse che il 50% dei farmaci fosse efficace e l’altro 50 no, quindi non si sa se effettivamente darebbe un risultato migliore o peggiore rispetto alle revisioni sistematiche (che comunque mostrano una certa costanza, ad esempio si sa che il numero di farmaci scartati in fase clinica dopo aver superato la sperimentazione animale gira attorno al 90%, oscillando tra il 92 [1] e il 96 [2]), d’altra parte la difesa della sperimentazione animale, in questo senso, non può essere supportata perché vi è una mancanza di dati.
Anzi, ciò implica la richiesta di una validazione ufficiale dei test su animali per dimostrare che, come accade normalmente con i metodi alternativi, riescano a superare i risultati richiesti ad essi avendo una prevalenza del 50%.
Se la sperimentazione animale ha sensibilità minima può comunque avere specificità alta e, se ad esempio altri test avranno sensibilità alta e minima specificità, potranno compensarla. La SA dunque non è disprezzabile, ma non la si deve analizzare da sola.

Le obiezioni a quest’affermazione sono 2:

1) Normalmente la sperimentazione animale segue le precedenti fasi precliniche, quindi valutando la SA si sta valutando tutta la sperimentazione preclinica attuale, non solo i test su animali in maniera isolata, ma neanche così si riesce a riscontrare dei valori alti.

Pertanto l’ipotesi sarà quella di riuscire ad ottenere un risultato alto integrando la SA non alle vecchie, ma a nuove metodologie, d’altra parte però:

2) La regola delle 3R afferma che se si ha un metodo alternativo (o un insieme di metodi alternativi, come nel caso delle Integrated Testing Strategies) con valori uguali o maggiori dell’animale, esso dovrà essere sostituito, indipendentemente dal fatto che unendo anch’esso si otterrà un risultato ancora maggiore.

Passiamo adesso all’ultima tesi:

I metodi alternativi vanno validati testandoli con il miglior metodo disponibile, la SA.

In realtà il miglior “metodo” disponibile è l’uomo, e i test clinici, oltre che gli studi di farmacovigilanza, possono dirci molto sulle proprietà che hanno numerosissime molecole sull’essere umano.
Pertanto è possibile effettuare una validazione testando i composti sul metodo alternativo e comparando i risultati con le reazioni umane che conosciamo grazie ai test clinici e di farmacovigilanza. All’obiezione che si tratta di sostanze che già conosciamo e che sostanze nuove potranno non rispondere allo stesso modo, rispondiamo affermando che, se abbiamo provato dieci farmaci diversi, possiamo supporre che altri dieci si comporteranno nello stesso modo sulla base della regolarità. 
Questa procedura può essere considerata una validazione retrospettiva, e d’altra parte lo stesso ECVAM ha già approvato metodologie grazie a validazioni retrospettive [3].

1. [Innovation or Stagnation: Challenge and Opportunity on the Critical Path to New Medical Products. U.S. Department of Health and Human Services. Food and Drug Administration. March 2004.]
2. [Kola I, Landis J. Can the pharmaceutical industry reduce attrition rates? Nat Rev Drug Discov. 2004 Aug;3(8):711-5.]
3. [Hartung T, Bruner L, Curren R, Eskes C, Goldberg A, McNamee P, Scott L, Zuang V. First alternative method validated by a retrospective weight-of-evidence approach to replace the Draize eye test for the identification of non-irritant substances for a defined applicability domain. ALTEX. 2010;27(1):43-51.]

Database, linee guida e risorse per trovare le alternative nei diversi campi di ricerca

Linee guida e database:

Database Go3R per le alternative

Linee guida ECVAM per le alternative nella ricerca

Introduzione al database AnimAlt-ZEBET sulle alternative

Accesso al database AnimAlt-ZEBET

Riviste Scientifiche sulle alternative:

ATLA: ultimo numero e numeri precedenti


Lab on a Chip Journal


Toxicology in Vitro



NC3Rs – National Centre for the Replacement, Refinement and Reduction of Animals in Research

cover pageLogo of the German Institute of Medical Documentation and Information (link to homepage)

Sperimentazione Animale: il problema della Validazione

Oggi andremo a parlare del processo di validazione dei test su animali e dei metodi alternativi, confutando l’articolo uscito su Pro-Test Italia, chiamato “La Sperimentazione Animale: il problema della validazione”.

Andiamo dunque a elencare i punti focali dello stesso e a confutarli, passo dopo passo. Iniziamo subito:

“Usano un metodo con successo da duecento anni […] e nessuno si è mai preoccupato di “validarlo”!”

Con successo? I singoli successi della SA sono più un’eccezione che la norma, infatti, secondo la FDA, ente statunitense che si occupa dell’immissione dei farmaci, il 92% delle sostanze che passano i test su animali viene scartato in fase clinica [1].

“sono presenti regolarità in natura; enti diversi hanno in comune queste regolarità; queste regolarità possono essere riprodotte a distanze spaziali o temporali. In questo modo il modello può rappresentare l’oggetto di studio reale, o addirittura qualsiasi oggetto di studio ideale, e prevedere dunque il comportamento dell’oggetto di studio in virtù delle regolarità che hanno in comune. […] Perché voi negate l’assunto filosofico, alla base della scienza, che sia possibile fare delle previsioni basate sulla regolarità della natura. […] Con qualsiasi modello sperimentale, anche quelli in biologia, il meccanismo è uguale. Io posso prendere una serie di enti che hanno delle cose in comune e verificare il loro comportamento in una serie di circostanze standardizzate; dopodiché farò una generalizzazione che associa più o meno stabilmente alcune di queste proprietà in comune con un determinato comportamento. […] Ed è tutto qui, validare significa QUESTO e BASTA. Significa verificare che il modello abbia in comune con l’oggetto di studio abbastanza da permettere una generalizzazione ragionevole.”

Quello che i pro-SA vogliono dire, è che si giustifica l’uso dei modelli animali in base a processi conservati tra le specie. D’altra parte ciò non corrisponde al vero, in quanto gli animali sono tipici esempi di sistemi complessi a molti livelli, dotati di proprietà emergenti, modulari e non lineari. Mentre infatti nello studio dei processi biochimici di base non c’è bisogno di “scomodare” l’organismo intero nella sua complessità in quanto l’esame del processo conservato avviene allo stesso livello di organizzazione o nello stesso modulo ed è soggetto di studio del riduzionismo, l’uso del modello animale quale modello causale analogo (CAM) ovvero come modello predittivo per l’uomo nello studio di patologie umane complesse, reazione a farmaci e vaccini, dispositivi, xenobiotici, ecc, implica spesso che il tratto o la risposta in fase di studio sia situato a livelli più alti di organizzazione, si trovi in un modulo diverso, o sia influenzato da altri moduli e dunque la mera presenza di processi conservati tra le specie diviene insufficiente per l’estrapolazione dei dati all’uomo [2].

“Quando è che le somiglianze sono “abbastanza” da permettere una generalizzazione? Be’, non c’è una regola a priori a questo proposito. Tuttavia sono stabiliti dei criteri di buon senso che vengono usati nella validazione dei modelli.”

Come detto prima, si tratti di criteri molto semplificati e limitati, che ignorano la proprietà dell’animale di essere un sistema complesso.
Ignorando questo dato di fatto, si ignora anche che i sistemi complessi sono costituiti da molti componenti che possono essere raggruppati in moduli che interagiscono tra loro, che hanno proprietà emergenti che derivano dalle interazioni tra le parti, che sono resistenti ai cambiamenti, che esibiscono ridondanza nei loro componenti, che sono auto-organizzati, che danno risposte non lineari, che hanno livelli gerarchici di organizzazione, che interagiscono con l’ambiente, che hanno cicli di retroazione e che sono dinamici [3].
Ne consegue che, nonostante alcuni scienziati cerchino di associare al farmaco che viene testato la specie animale che più probabilmente reagirà come l’Uomo, questa strategia ha delle forti limitazioni, poiché animali ed esseri umani sono sistemi complessi e gran parte di ciò che occorre sapere per determinare come reagiranno gli esseri umani si potrà sapere soltanto quando il farmaco sarà stato testato sugli esseri umani. Pertanto è pressoché impossibile sapere a priori quali specie animali avranno una reazione simile a quella umana. Per di più, anche la profonda variabilità della risposta umana limita le possibilità predittive dei modelli animali. Lavery afferma che, per queste ragioni, i modelli animali sono indicatori scadenti della risposta umana [4] e non sono adatti per le“dimostrazioni di principio” [5]. Ecco come riassumono la situazione Giri e Bader:
“Chiaramente, i test dei farmaci sugli animali sono irrealistici e provocano reazioni impreviste nei trial clinici sull’uomo” [6].
Questa limitatezza della capacità predittiva nello sviluppo dei farmaci si estende ai modelli animali delle malattie. Enna e Williams hanno rilevato che un ostacolo importante nella medicina traslazionale – la branca della medicina che traduce le conoscenze derivanti da aree di studio diverse in interventi efficaci per la salute pubblica – è il fatto che la maggior parte dei modelli animali delle malattie non ha un valore predittivo per l’Uomo [7]. Shapiro ha messo in rilievo lo stesso problema per quanto riguarda l’utilizzo di topi per studiare l’enfisema [8], mentre Rangarajan e Weinberg hanno segnalato l’esistenza di numerose differenze genetiche tra i tumori dei topi e quelli umani, asserendo che esistono «differenze fondamentali» nella patofisiologia dei tumori [9]. L’équipe di Lindl ha studiato gli esperimenti sugli animali realizzati in Germania dal 1991 al 1993, rilevando che tutte le ipotesi derivate dai modelli animali nel corso di questo periodo si sono dimostrate false per gli esseri umani oppure non sono state testate [10].

“Per esempio se cerchiamo un modello per il cancro (senza animali, così son tutti contenti):”

Parlare in uno stesso articolo di validazione ECVAM e di modelli di malattie indica una confusione tra l’iter costituito dalla validazione obbligatoria dei test preclinici (che ha dei criteri rigidamente stabiliti in quanto questi ultimi rappresentano lo step immediatamente precedente l’immissione dei farmaci in fase clinica, hanno il compito di proteggere le persone da effetti avversi delle sostanze e dunque richiedono criteri più selettivi), e validità dei modelli di malattie (che non hanno criteri altrettanto rigidi e le cui alternative senza animali non richiedono una validazione ufficiale per essere utilizzate).

Comunque, continuiamo nella confutazione dell’articolo. Qui l’autore si riferisce, nel discorso, a un ipotetico metodo alternativo:

“Questo è già un inizio, se somiglia tanto alla patologia umana è probabile che si comporti nello stesso modo. È un modello.”

Questo discorso vale solo in caso di utilizzo di materiale umano, perché il metodo alternativo conserverà le stesse caratteristiche umane, e nell’interconnetterlo con altri moduli (anch’essi basati su materiale umano), come accade già con metodi alternativi quali le IdMOC [11] e il sistema Quasi-Vivo [12] [13], si riusciranno a ricreare le stesse interazioni tessuto-tessuto, tessuto-organo e organo-organo presenti nell’uomo.

Gli animali invece hanno interazioni con altri moduli, non solo quelli contenenti pro
cessi conservati, e quindi questi ultimi sono una minoranza e servono a ben poco, dato che con l’interazione con altri moduli si hanno processi non conservati che interferiscono, creando una risposta diversa da quella presente nell’uomo, dove tali interferenze sono assenti.

“Se la causa dell’alterazione nel modello è la stessa della patologia umana, probabilmente prevederà anche le risposte ai farmaci.”

E’ proprio sul lato predittivo che il modello animale decade, infatti i dati [3][14][15][16][17] ci dimostrano che esso è fallimentare, e quindi che anche gli altri criteri hanno delle falle (come abbiamo dimostrato, in quanto non si tiene conto che si parla di sistemi complessi).

“Ma cosa credono che si faccia all’ECVAM quando si produce e valida un nuovo modello? Si fanno i tre passi che ho elencato sopra: si verifica che il modello abbia somiglianza significative nei fatti alla patologia umana, eventualmente che esso sia prodotto dagli stessi fattori che producono la patologia umana, infine che risponda ai trattamenti già noti nello stesso modo in cui risponde l’umano.”

Allora perchè non sottoporre la SA ad una validazione come quelle effettuate dall’ECVAM, dato che sono molto simili?

“Nella sperimentazione animale questi tre criteri si chiamano face validity (validità di forma), construct validity (validità di costrutto), predictive validity (validità predittiva).”

E’ proprio nella validità predittiva che gli animali mostrano un fallimento, dimostrando allo stesso tempo che anche i due assunti precedenti non hanno preso in considerazione tutte le variabili (cioè non si è tenuto conto che gli animali sono sistemi complessi).
Infatti, secondo quanto ci comunicano Hackam e Redelmeier, la concordanza positiva dell’animale non supera il 33% [15], mentre secondo Greek [18], che riporta a sua volta i risultati di Heywood, il valore predittivo positivo sarebbe pari al 31% [19].
Per quanto riguarda invece la riproducibilità, Hartung [20] riporta i dati di Gottmann e colleghi, i quali, valutando il potenziale carcinogenico di 121 sostanze, hanno comparato i risultati provenienti dalla letteratura scientifica generale con quelli del National Cancer Institute/National Toxicology Program (NCI/NTP) e hanno rilevato solo il 57% di concordanza a parità di specie (topi e ratti) [21]. 
Ovviamente, essendo la riproducibilità all’interno della stessa specie così bassa, la trasposizione di questi risultati all’uomo non potrà di certo essere più alta.
Andiamo adesso ad analizzare i criteri di validazione dei metodi alternativi, osservando quali sono i valori predittivi minimi e la percentuale di riproducibilità minima affinchè un metodo venga validato come sostitutivo dell’animale.
Notiamo che i dati analizzati sopra non riescono spesso ad arrivare neanche al criterio minimo affinchè un metodo venga accettato come test di screening e ricordiamo che la percentuale che dovremmo aspettarci dall’animale, invece, dovrebbe essere almeno pari a quella pretesa dai metodi alternativi che lo sostituiscano completamente.

I criteri di riproducibilità sono infatti:
“Screening tests: c. 70
Adjunct tests: c. 70
Replacement tests: c. 80% (or better than the reproducibility of the particular animal test concerned).”

Mentre quelli di rilevanza sono:
“Screening tests: predictive value >0.50 (e.g., better than random classification)
Adjunct tests: predictive value >/=0.75
Replacement tests: predictive value >/=0.90.” [22]

Notiamo come un valore pari al 50% di predittività sia considerato “random” e concludiamo, dunque, che il modello animale non è considerabile “predittivo”, dato che, qualora dovesse subire un processo di validazione ufficiale, probabilmente sarebbe scartato o comunque non raggiungerebbe la percentuale richiesta dai metodi alternativi per la sostituzione.

“Quindi se ci serve un modello di Alzheimer […] , esso potrà avere validità di forma, per esempio ha le placche di beta-amiloide e la degenerazione colinergica; potrà anche avere, magari, una qualche validità di costrutto, ad esempio essere dovuto ad una mutazione genetica come alcune forme familiari di Alzheimer… ma non potrà MAI avere la validità predittiva, perché non abbiamo farmaci efficaci con cui confrontare quelli nuovi. E in realtà, a dire il vero, anche la validità di costrutto è estremamente difficile da raggiungere, poiché non è affatto chiara l’eziologia della variante sporadica del morbo di Alzheimer negli umani, dunque come possiamo riprodurla in vitro o su modelli animali?
Nel caso delle malattie neurodegenerative il grosso del lavoro attualmente è costruire modelli che abbiano validità di forma e attraverso di essi cercare di comprendere l’eziologia; una volta capita l’eziologia, sarà possibile sperimentare trattamenti nuovi. Solo quando avremo i primi trattamenti efficaci potremo cominciare a parlare di validità predittiva. Chi parla di validità predittiva prima ancora di avere la validità di forma è come se volesse imparare a nuotare prima di entrare in acqua, ciò è assurdo.”

Tendenzialmente, quando un trattamento è ormai giunto alla fase clinica, si stabilisce che il modello usato sia quello più accuratamente scelto, quindi i criteri di forma e costrutto sono quelli più adeguati, per lo stesso. Inoltre i dati dei fallimenti ci derivano non da singoli studi, ma principalmente da revisioni sistematiche, perciò non si tratta di un semplice sbaglio, ma di più sbagli, di diversi modelli accuratamente scelti in base a questi fattori e fallimentari. Evidentemente lo sono, a livello predittivo, non perché non ci sia riusciti a passare la validità di costrutto o di forma (altrimenti il modello non sarebbe stato ritenuto abbastanza adeguato da venir usato, infatti, come dice dopo lo stesso articolo pro-test: “ogni singolo modello animale è validato o in corso di validazione; la sua stessa produzione è già un primo passo di validazione”), semmai il problema è che tali forme di validazione non prendono in considerazione che gli animali sono sistemi complessi, e quindi i singoli processi conservati e le loro cause comuni non sono predittive del comportamento di un organismo appartenente a un’altra specie, che avrà sarà per forza un comportamento emergente e quindi non ricostruibile da singoli processi separati ma dall’insieme dei processi e delle loro interazioni. Se le interazioni avvengono tra processi comuni e processi non comuni tra le due specie, anche il comportamento sarà diverso.

“Quello che fanno gli anti-SA è ridefinire man mano i propri parametri di validazione, di modo che qualsiasi metodo di validazione sia utilizzato, essi possano sempre dirsi insoddisfatti, esattamente come facevate voi con la pallina di piombo.”

No, semplicemente stabiliamo che i modelli animali, alla luce delle revisioni sistematiche, mancano di validità predittiva.

“Allora prenderemo i farmaci che sappiamo funzionare sull’uomo e verificheremo che funzionino anche sul nostro modello.”

Tendenzialmente il problema è che non si prendono in considerazione abbastanza farmaci. Fare una “validazione” su 2 o 3 farmaci già noti, e chiamarla con questo nome, tanto per dare un’apparenza di “validità predittiva”, è prendersi in giro.
La validazione ECVAM espone a un numero con almeno due cifre maggiori di farmaci già noti e lì si può effettivamente notare quanto sia efficace l’animale o quanto non lo sia. E’ forse per questo che gli sperimentatori animali evitano la validazione ECVAM? Perchè sanno che i loro metodi non potranno passare un test con un tal numero di sostanze?
O forse non vogliono anche loro spendere 10 anni e 5 milioni di euro per i test di validazione e altri anni per il loro inserimento nelle linee guida?
hè, a differenza di quanto ciarlano, nessun ricercatore ha mai preso un premio Nobel laddove avesse pubblicato i risultati di un metodo alternativo maggiormente predittivo dell’animale, ma addirittura deve egli stesso pagare 5 milioni di euro affinchè la sua scoperta venga sottoposta a validazione. 
E qui faccio loro una domanda: non credete forse che con un tale sistema si siano persi tantissimi metodi alternativi attualmente utilizzabili, solo perché non vi era un’industria dietro pronta a sobbarcarsi queste spese?


I pro-test hanno risposto con questa affermazione:

“Certo, fra animali ed umani c’è una maggiore variabilità che fra umani e umani, questa è la fiera della banalità… ma quand’è che la differenza diventa “troppa” per generalizzare? Filosoficamente parlando, MAI.”

Sinceramente, tra un 15% di differenza genetica ed uno 0,1% io ci vedo una minore generalizzazione. Soprattutto considerando che già un 1-2% di diversità a livello genetico dello scimpanzè, la specie più vicina a noi, si traduce in una discordanza dell’80% nel passaggio dai geni alle proteine [23]. Siamo dunque davvero sicuri che si possa estrapolare così facilmente da una specie all’altra? Secondo noi no, e i risultati fallimentari della sperimentazione animale ce lo dimostrano.
Infine, proprio perchè si stanno notando le differenze (sebbene non ampie quanto quella tra uomo e animale) anche tra uomo e uomo, e ci si sta accorgendo che anche la sperimentazione clinica ha svariati limiti, si sta cercando di ridurre le possibili minacce, e lo si sta facendo proprio migliorando la ricerca preclinica (o vogliamo forse pretendere di migliorare direttamente la ricerca clinica sull’uomo? Se sì, come?) e aprendo la strada alla medicina personalizzata. Il punto è: vogliamo ridurre queste differenze o aumentarle? Vogliamo andare avanti nella scienza del XXI secolo o vogliamo crogiolarci nel vecchio paradigma, giustificando ampie ingenerabilità con piccole variazioni su cui tra l’altro si sta già lavorando?


[1] Innovation or Stagnation: Challenge and Opportunity on the Critical Path to New Medical Products. U.S. Department of Health and Human Services. Food and Drug Administration. March 2004.
[2] Greek R, Rice MJ. Animal models and conserved processes. Theor Biol Med Model. 2012 Sep 10;9:40. doi: 10.1186/1742-4682-9-40.
[3] Greek R, Menache A. Systematic Reviews of Animal Models: Methodology versus Epistemology. Int J Med Sci 2013; 10(3):206-221.
[4] Lavery JV. How can institutional review boards best interpret preclinical data? PLoS medicine 2011, 8(3):e1001011.
[5] Anderson J, Kimmelman J. Extending Clinical Equipoise to Phase I Trials Involving Patients: Unresolved Problems. Kennedy Inst Ethics J 2010, 20:79-81.
[6] Giri S, Bader A. Foundation review: Improved preclinical safety assessment using micro-BAL devices: the potential impact on human discovery and drug attrition. Drug Discovery Today 2011, 16(9/10):382-397.
[7] Enna SJ, Williams M. Defining the role of pharmacology in the emerging world of translational research. Adv Pharmacol 2009, 57:1-30.
[8] Shapiro SD: Transgenic and gene-targeted mice as models for chronic obstructive pulmonary disease. Eur Respir J 2007, 29(2):375-378.
[9] Rangarajan A, Weinberg RA: Opinion: Comparative biology of mouse versus human cells: modelling human cancer in mice. Nat Rev Cancer 2003, 3(12):952-959.
[10] Lindl T, Voelkel M, Kolar R. [Animal experiments in biomedical research. An evaluation of the clinical relevance of approved animal experimental projects]. ALTEX 2005, 22(3):143-151.
[11] Li AP. The use of the Integrated Discrete Multiple Organ Co-culture (IdMOC) system for the evaluation of multiple organ toxicity. Altern Lab Anim. 2009 Sep;37(4):377-85.
[12] Mazzei D, Guzzardi MA, Giusti S, Ahluwalia A. A low shear stress modular bioreactor for connected cell culture under high flow rates. Biotechnol Bioeng. 2010 May 1;106(1):127-37. doi: 10.1002/bit.22671.
[13] Vozzi F, Mazzei D, Vinci B, Vozzi G, Sbrana T, Ricotti L, Forgione N, Ahluwalia A. A flexible bioreactor system for constructing in vitro tissue and organ models. Biotechnol Bioeng. 2011 Sep;108(9):2129-40.
[14] Lindl T & Völkel M. No clinical relevance of approved animal experiments after seventeen years. ALTEX 2011; 28(3): 242-3.
[15] Hackam & Redelmeier. Translation of research evidence from animals to humans. [research letter]. JAMA 2006; 296(14): 1731-2.
[16] Pound P., Ebrahim S., Sandercock P., Bracken M. & Roberts I. Where is the evidence that animal research benefits humans? British Medical Journal 2004; 328: 514-517.
[17] Leist M, Hartung T. Inflammatory findings on species extrapolations: humans are definitely no 70-kg mice. Arch Toxicol. 2013 Apr;87(4):563-7.
[18] Shanks N., Greek R., Greek J., Are animal models predictive for humans? Philos Ethics Humanit Med. 2009; 4: 2.
[19] Heywood R: Clinical Toxicity – Could it have been predicted? Post-marketing experience. In Animal Toxicity Studies: Their Relevance for Man Edited by Lumley CE, Walker S Lancaster, Quay. 1990, 57-67.
[20] Hartung, T. Toxicology for the twenty-first century Nature, Volume 460, Issue 7252, pp. 208-212 (2009).
[21] E Gottmann, S Kramer, B Pfahringer, and C Helma. Data quality in predictive toxicology: reproducibility of rodent carcinogenicity experiments. Environ Health Perspect. 2001 May; 109(5): 509–514.
[22] Balls M, Blaauboer B, Brusick D, Frazier J, Lamb D, Pemberton M, Reinhardt C, Roberfroid M, Rosenkranz H, Schmid B, Spielmann H, Stammati A-L, Walum E. Report and recommendations of the CAAT/ERGATT workshop on the validation of toxicity test procedures. Amden report. Altern Lab Anim. 1990;18:313–337.
[23] Glazko G, Veeramachaneni V, Nei M, Makałowski W. Eighty percent of proteins are different between humans and chimpanzees. Gene. 2005 Feb 14;346:215-9.