Archivi del mese: giugno 2014

Il “Brain-on-a-Chip” del CAAT: applicazioni biologiche e mediche

[Pamies D, Hartung T, Hogberg HT. Biological and medical applications of a brain-on-a-chip. Exp Biol Med (Maywood). 2014 Jun 9. pii: 1535370214537738. [Epub ahead of print]]

Abstract:

The desire to develop and evaluate drugs as potential countermeasures for biological and chemical threats requires test systems that can also substitute for the clinical trials normally crucial for drug development. Current animal models have limited predictivity for drug efficacy in humans as the large majority of drugs fails in clinical trials. We have limited understanding of the function of the central nervous system and the complexity of the brain, especially during development and neuronal plasticity. Simple in vitro systems do not represent physiology and function of the brain. Moreover, the difficulty of studying interactions between human genetics and environmental factors leads to lack of knowledge about the events that induce neurological diseases. Microphysiological systems (MPS) promise to generate more complex in vitro human models that better simulate the organ’s biology and function. MPS combine different cell types in a specific three-dimensional (3D) configuration to simulate organs with a concrete function. The final aim of these MPS is to combine different “organoids” to generate a human-on-a-chip, an approach that would allow studies of complex physiological organ interactions. The recent discovery of induced pluripotent stem cells (iPSCs) gives a range of possibilities allowing cellular studies of individuals with different genetic backgrounds (e.g., human disease models). Application of iPSCs from different donors in MPS gives the opportunity to better understand mechanisms of the disease and can be a novel tool in drug development, toxicology, and medicine. In order to generate a brain-on-a-chip, we have established a 3D model from human iPSCs based on our experience with a 3D rat primary aggregating brain model. After four weeks of differentiation, human 3D aggregates stain positive for different neuronal markers and show higher gene expression of various neuronal differentiation markers compared to 2D cultures. Here we present the applications and challenges of this emerging technology.

Annunci

Perchè i metodi alternativi non vengono usati?

Immagine

Al di là di ogni ipotesi complottista, quali sono i motivi più puramente logici e razionali che impediscono l’utilizzo di metodi alternativi in sostituzione della sperimentazione animale?

1) La validazione.
In fase preclinica, un metodo alternativo non può essere utilizzato se non è stato validato dall’ECVAM (Centro Europeo per la Validazione dei Metodi Alternativi) ed inserito nelle linee guida OCSE.
La procedura di validazione può richiedere fino a 10 anni di tempo, più il tempo d’inserimento nelle linee guida per rendere tale metodo obbligatorio.
In aggiunta, i metodi alternativi non vengono validati attraverso i dati conosciuti sull’uomo, ma comparandoli con modelli animali.
Considerate le limitatezze dell’animale, l’errore dello stesso può essere scambiato per un risultato giusto, mentre un risultato veramente esatto da parte del metodo alternativo può essere preso per un dato sbagliato (in quanto non concorde con quello dell’animale), conducendo talvolta allo scarto del metodo in fase di validazione.
Un esempio è quello del Cytosensor Microphysiometer, che doveva rimpiazzare il Draize Test ma diede un risultato inizialmente inconcludente, dato che si confrontò il suo risultato con quello del Draize test stesso, finchè non fu validato grazie a meta-analisi retrospettive, che fecero capire che il problema non era nel metodo alternativo, ma nella presenza di falsi positivi che il Draize test tendeva a dare [1][2].
Inoltre, come riferito dalla dottoressa Meg Lewis della Kirkstall Ltd, società biotech creatrice del metodo alternativo denominato “Quasi-Vivo”, “con 10 anni e 5 milioni di euro di investimento medio per ottenere un singolo test validato dall’ECVAM, il costo è semplicemente troppo grande per la maggior parte delle piccole imprese, ma senza di essa, è molto difficile convincere le organizzazioni di ricerca a contratto e farmaceutiche ad utilizzare le nuove tecnologie e cambiare i loro approcci (se non impossibile)” [3].
Esatto, 5 milioni di euro. 5 milioni di euro che un ricercatore medio non potrà mai dare all’ECVAM, e farà sì che il suo metodo non verrà mai preso in considerazione, ma si perderà nella mole infinita di pubblicazioni della letteratura scientifica.

2) Confusione tra metodi validati e metodi validi nella ricerca di base.
Spesso e volentieri, uno dei motivi per cui nella ricerca di base e traslazionale, che non hanno l’obbligo di usare solo i metodi approvati dall’ECVAM, non vengono utilizzate tecnologie alternative, è quello per cui si confondono i metodi validi con i metodi validati.
Infatti, per valutare se un metodo sia valido o meno, bisogna consultare i dati presenti nella letteratura scientifica riguardanti quella determinata tecnologia.
Attualmente, invece, si tende a confondere l’esistenza di un metodo con l’approvazione ufficiale da parte dell’ECVAM (obbligatoria solo verso la ricerca preclinica, ma superflua per la ricerca di base e traslazionale), il che si traduce nel classico pensiero: “se non abbiamo neanche metodi per la ricerca preclinica, figuriamoci per la ricerca di base”, quando invece questi metodi esistono ma non sono ancora totalmente approvati nella ricerca preclinica e in secondo luogo possono essere usati nella ricerca pura, ad esempio come modelli promettenti di malattie umane o per lo studio dei processi fisiologici di base.

3) Assenza di un database nella ricerca di base.
Non esiste un database obbligatorio nella ricerca di base, da consultare per vedere se esistono metodi alternativi validi in ogni campo d’interesse.
Questo fa sì che sia il singolo ricercatore (che spesso non ha idea che le alternative possano esistere o comunque non arriva a ricerche bibliografiche approfondite per scoprirlo) a dover cercare se vi sono metodi alternativi in una determinata area. Questi possono spesso sfuggire, in primis perchè non tutte le alternative sono indicizzate come “alternative methods” (ma ad esempio come “in vitro model”, “microfluidic”, “on-a-chip”, “bioreactor”, e così via) agli animali (non è detto, infatti, che lo scopo primario della creazione di tali tecnologie fosse la sostituzione dell’animale), in secondo luogo perchè il materiale, nella letteratura scientifica, è immenso.
Pubmed, ad esempio, contiene circa 23 milioni di paper scientifici… davvero crediamo che ogni ricercatore troverà il metodo alternativo appropriato in mezzo a quest’oceano di pubblicazioni?
Esistono al momento soltanto database facoltativi e non completi, come Go3R, le linee guida ECVAM e il database AnimAlt-ZEBET [4].

4) Costi.
A differenza di quanto si pensi, spesso i costi iniziali delle tecnologie alternative superano quelli degli animali utilizzabili nella stessa ricerca. Un esempio è quello di SynDaver.
Nel brevetto, c’è scritto che “these models are unique in possessing a level of complexity that allows them to be substituted for either a live animal, an animal cadaver, or a human cadaver in the testing of these devices [ovvero i dispositivi medici].” [5].
Ebbene, perchè questa tecnologia non soppianta l’uso di animmali nel testare pacemaker e altri dispositivi medici?
Semplice, il costo di un intero SynDaver Human è di 65.000 dollari [6]. Direi che è un po’ più economico un animale, non credete?
Eppure può essere usato più volte rispetto all’animale e, come accade spesso in questi casi, è più affidabile. Infatti “animal models suffer from a whole range of unique problems, including the many deviations between human and animal anatomy and physiology, the confounding effects of variation between individual animals, and the unpredictability that arises from using a model that is extraordinarily complex” [5]. Infine, i costi così alti, via via che il prodotto sarà sempre più utilizzato, scenderanno, a differenza di quelli degli animali che sono relativamente stabili.

Fonti:
1. [Goldberg AM, Hartung T. Protecting more than animals. Sci Am. 2006 Jan;294(1):84-91.]
2. [Hartung T, Bruner L, Curren R, Eskes C, Goldberg A, McNamee P, Scott L, Zuang V. First alternative method validated by a retrospective weight-of-evidence approach to replace the Draize eye test for the identification of non-irritant substances for a defined applicability domain. ALTEX. 2010;27(1):43-51.]
3. QUI l’intervista in lingua originale.
4.
– Go3R
EURL ECVAM search guide
AnimALT-ZEBET
5. [Christopher Sakezles. Models and methods of using same for testing medical devices. US 7993140 B2]
6. http://syndaver.com/shop/syndaver/syndaver-synthetic-human-copy/

Quanto è predittiva e produttiva la ricerca su animali?

[Fiona Godlee. How predictive and productive is animal research? BMJ 2014;348:g3719]

Full Text: http://www.bmj.com/content/348/bmj.g3719

Sono passati più di 20 anni da quando Doug Altman ha scritto il suo bruciante editoriale nel BMJ sullo “scandalo della ricerca medica” (doi:10.1136/bmj.308.6924.283). All’inizio di quest’anno l’ex direttore del BMJ Richard Smith ha riassunto il motivo per cui lo stesso editoriale potrebbe essere pubblicato oggi con pochi cambiamenti (http://bit.ly/1rHnWbL), facendo riferimento alla recente serie di Lancet sugli scarti nella ricerca medica e all’articolo di John Ioannidis su PLoS Medicine intitolato “Perché i risultati delle ricerche più pubblicate sono falsi”. La letteratura medica rimane afflitta da pregiudizi accademici e commerciali causati da sovrainterpretazione di studi piccoli, mal progettati e mal realizzati, molti dei quali riportati erroneamente o selettivamente o non riportati affatto. Il risultato è una base di dati che esagera sistematicamente i benefici e minimizza i danni di trattamenti.
Ma, come se non bastasse, un problema ancora più fondamentale mette in dubbio la validità della ricerca clinica: la scarsa qualità della ricerca su animali su cui si basa gran parte di essa. Dieci anni fa, nel BMJ Pandora Pound e colleghi chiesero: “Dove sono le prove che la ricerca su animali benefici gli esseri umani?” (doi:10.1136/bmj.328.7438.514). Le loro conclusioni non erano incoraggianti. La maggior parte della ricerca su animali per potenziali trattamenti per gli esseri umani era da buttare, dissero, perché era stata mal condotta e non valutata attraverso revisioni sistematiche.
Da allora, come Pound e Michael Bracken spiegano questa settimana (doi:10.1136/bmj.g3387), il numero di revisioni sistematiche di studi su animali è aumentato notevolmente, ma questo è servito solo per evidenziare la scarsa qualità di molte ricerche precliniche su animali. Le stesse minacce alla validità interna ed esterna che la assediano la ricerca clinica si trovano in abbondanza negli studi su animali: la mancanza di randomizzazione, blinding, e allocation concealment; analisi selettiva; e bias di segnalazione e di pubblicazione. Il risultato, ha detto Ioannidis nel 2012, è che è “quasi impossibile fare affidamento sulla maggior parte dei dati animali per predire se un intervento avrà un rapporto rischi-benefici clinici favorevole in soggetti umani.”
Un tale spreco non è etico né nella ricerca su animali né in quella umana. La ricerca preclinica mal effettuata può portare a sperimentazioni cliniche costose ma infruttuose esponendo i partecipanti a farmaci dannosi. E naturalmente c’è l’inutile sofferenza degli animali coinvolti nella ricerca che non porta alcun beneficio.
Cosa fare a questo proposito? Condurre e riportare meglio la ricerca su animali aiuterà, dicono Pound e Bracken. Questo potrebbe venire da una migliore formazione ed educazione dei ricercatori di base e da un cambiamento culturale, alimentato da un maggior controllo e responsabilità pubblica. Ma quanto questo potrebbe davvero migliorare il tasso di traslazione di successo dagli animali agli esseri umani? Non molto, a quanto pare. Anche se la ricerca fosse condotta in maniera impeccabile, sostengono gli autori, la nostra capacità di prevedere le risposte umane partendo da modelli animali sarà limitata da differenze interspecifiche nelle vie molecolari e metaboliche.
I fondi potrebbero essere meglio orientati verso la ricerca clinica, piuttosto che verso la ricerca di base, dove c’è un ritorno più chiaro sugli investimenti in termini di effetti sulla cura del paziente. Gli autori concludono: “Se la ricerca condotta sugli animali continua a non essere in grado di prevedere ragionevolmente quello che ci si può aspettare negli esseri umani, la continua approvazione pubblica e il finanziamento alla ricerca preclinica su animali sembrano fuori luogo”. Dove vorreste collocare l’equilibrio degli sforzi: investimenti in una ricerca animale migliore o un cambiamento nel finanziamento per maggiore ricerca clinica?

[Pandora Pound, Michael B Bracken. Is animal research sufficiently evidence based to be a cornerstone of biomedical research? BMJ 2014;348:g3387.]

Abstract: http://www.bmj.com/content/348/bmj.g3387

Abstract:

Public acceptance of the use of animals in biomedical research is conditional on it producing benefits for humans. Pandora Pound and Michael Bracken argue that the benefits remain unproved and may divert funds from research that is more relevant to doctors and their patients

Proponents of animal research claim that the benefits to humans are self evident.1 However, writing in The BMJ 10 years ago we argued that such uncorroborated claims were inadequate in an era of evidence based medicine.2 At that time over two thirds of UK government and charitable investment was going into basic research,3 perhaps creating an expectation that such research was highly productive of clinical benefits. However, when we searched for systematic evidence to support claims about the clinical benefits of animal research we identified only 25 systematic reviews of animal experiments, and these raised serious doubts about the design, quality, and relevance of the included studies. As our colleagues had done earlier,4 we argued the case that systematic reviews should be extensively adopted within animal research to synthesise and appraise findings, just as they are in clinical research.