Nobel 2024, Chimica: una questione di Intelligenza Artificiale

Il premio Nobel per la chimica 2024 è stato assegnato a Demis Hassabis e John M. Jumper di DeepMind e David Baker della University of Washington. La motivazione per i primi due è : “for protein structure prediction”; per Becker “for computational protein design

Comune denominatore della assegnazione sono le proteine e lo sviluppo di software intelligenti. E in entrambi i casi si tratta di esempio virtuosi e positivi sia di uso dell’Intelligenza Artificiale che di collaborazione nella comunità scientifica.

Demis Hassabis è il fondatore di DeepMind, vocata allo sviluppo di intelligenze artificiali nell’orbita di Google. Mente eclettica e indubbiamente geniale, progettista di videogiochi, neuroscienziato, imprenditore. Un predestinato.

John M. Jumper ha studiato fisica e matematica e ha lavorato all’ottimizzazione dei software per le simulazioni dei modelli durante il suo dottorato in fisica teorica.

Baker 30 anni fa ha sviluppato un software – Rosetta – per la progettazione di proteine; nel 2003 pubblicò Top7, una proteina che non esisteva in natura.

Le proteine sono uno dei 3 nutrienti fondamentali assieme a grassi e carboidrati. Sono formate da catene di amminoacidi che si ripiegano in strutture delle dimensioni dei nanometri (miliardesimi di metro) e sono i più importanti basilari per applicazioni essenziali nella vita biologica e industriale, dalla farmacologia alla veicolazione di enzimi e molecole.

Le strutture proteiche sono molto difficili da studiare: negli anni 50 fu messa a punto una tecnica basata sulla cristallografia a Raggi X, negli anni 90 fu istituito il CASP, una sorta di concorso biennale aperto a tutta la comunità scientifica e tecnologica per sviluppare strumenti al fine di prevedere in modo veloce e affidabile le strutture proteiche ma i risultati furono scarsi, fino al 2018, quando DeepMind con il suo software intelligente AlphaFold raggiunse il 60% di affidabilità.

Nel gruppo di lavoro c’era anche Jumper che applicò, successivamente, gli ultimi sviluppi delle reti neurali per sviluppare il modello di AlphaFold 2; questo nuovo software nel 2020 vinse il CASP con una accuratezza previsionale comparabile a quella della cristallografia.

Da allora AlphaFold è diventato uno standard de facto e ha raccolto quasi 200 milioni di strutture proteiche da tutti gli organismi viventi ad oggi conosciuti, creando quella che oggi è la libreria mondiale delle proteine. Alphafold è usato da oltre 2 milioni di ricercatori in 190 paesi.

L’intuizione di Baker è stata quella di “invertire” l’approccio funzionale di Rosetta, convertendolo da previsionale a progettuale: perché non “aiutare” la natura progettando proteine per ruoli specifici?

Dopo Top7, Baker progettò e realizzò diverse altre proteine specializzate che potrebbero essere impiegate per la produzione di vaccini, per rilevare la presenza di specifiche sostanze e per trasportare molecole negli organismi viventi di destinazione.

Le ricadute sociali della sinergia tra AlphaFold e gli studi di Baker sembrano essere già importanti e potrebbero diventare enormi. E stavolta, forse, tutte positive.

Dalla comparsa della Intelligenza Artificiale nel mercato consumer, prima con ChatGPT e poi gli altri, abbiamo iniziato a interrogarci sul ruolo sociale della IA e a dubitare dell’eticità dello scenario che si prospetta.

Il caso di AlphaFold può, invece, delineare una diversa prospettiva: il progetto è nato dalla sinergia di contributi diversi e complementari, di menti geniali, di ambizioni universali, con un obiettivo comune, dotate di risorse adeguate e di strumenti abilitanti che hanno permesso di rendere realtà il disegno generale.

Prima di AlphaFold studiare le proteine richiedeva tempi lunghi e incertezze elevate, oltre a competenze verticali che costringevano la ricerca a settorializzarsi.

Questo Nobel  mette in luce un modello positivo di come la Intelligenza Artificiale possa essere una risorsa differenziante, quando viene addestrata con informazioni tassonomiche, affidabili, prive di bias e pre-filtrate.

Ancora di più ci dice che uomini e Intelligenza Artificiale possono lavorare in sinergia piuttosto che in concorrenza: AlphaFold è oggi un patrimonio della scienza mondiale e una volta di più si dimostra che l’assunzione di responsabilità di chi pensa e usa gli strumenti scientifici fa la differenza.


Nobel 2024, Fisica: propagazione dell'errore e vertigine delle etichette

1. ETICHETTE

Goffrey Hinton è uno psicologo cui è stato assegnato il Premio Nobel per la fisica in omaggio alle sue innovazioni in ambito informatico. Questa mescolanza di discipline mostra quanto sia svantaggioso l’irrigidimento nella separazione delle competenze e l’insistenza sulla specializzazione; ma è sorprendente che questa evidenza sia portata alla luce da un personaggio che ha costruito la sua carriera sulla ricerca di meccanismi destinati ad eseguire operazioni automatiche di ordinamento e classificazione – anzi, di più, a imparare metodi di lettura di contenuti non strutturati per applicare loro etichette di catalogazione.

Hinton meriterebbe un Nobel all’ostinazione, per la perseveranza con cui ha continuato a impegnarsi nell’evoluzione delle reti neurali e del deep learning, anche durante le fasi di «inverno» dell’intelligenza artificiale, con la riduzione degli investimenti, la sfiducia da parte delle istituzioni, lo scetticismo dei finanziatori. Non solo: per almeno un paio di decenni i budget destinati alla ricerca nel settore dell’AI hanno sostenuto soprattutto progetti che non credevano nella possibilità di apprendimento da parte delle macchine, e che si affidavano a software dove i processi di comprensione, di decisione e di esecuzione erano definiti dalle regole di comportamento stabilite a priori dallo sviluppatore umano.

Nel 2012 Hinton, con i collaboratori-studenti Alex Krizhevsky e Ilya Sutskever, ha presentato al concorso ImageNet il riconoscitore di immagini AlexNet: è al successo clamoroso di questa macchina che dobbiamo la diffusa convinzione che intelligenza artificiale, reti neurali e apprendimento profondo, siano tutti sinonimi. Il software non ha solo vinto la competizione del 2012, ma ha migliorato l’indice di correttezza nella classificazione delle illustrazioni di oltre 10 punti percentuali rispetto all’edizione precedente: un passo in avanti nelle prestazioni dell’intelligenza percettiva che non si era mai registrato nella storia del concorso. È risultato chiaro a tutti che in quel momento la disciplina era entrata in una nuova fase, e che il paradigma di progettazione e implementazione era cambiato. Una prova è che Sutskever figura tra i fondatori di OpenAI nel 2015, e che sia stato arruolato fino al novembre 2023 come ingegnere capo dello sviluppo di ChatGPT – il progetto con cui l’intelligenza artificiale ha valicato i confini dell’interesse specialistico e si è imposta all’attenzione del pubblico di massa alla fine del 2022.

2. STRATI NASCOSTI E RETROPROPAGAZIONE DELL’ERRORE

Il lavoro trentennale che precede AlexNet ruota attorno al concetto di retropropagazione dell’errore nel processo di apprendimento delle reti neurali. Né la nozione né il metodo sono stati inventati da Hinton, ma la sua ostinazione nel coltivarli non è servita meno dei suoi contributi ai procedimenti attuali e alla loro divulgazione, per l’elaborazione del paradigma contemporaneo dell’AI.

AlexNet e le reti neurali che che le somigliano (quelle convolutive) sono costruite con diversi livelli di unità di elaborazione. Nel primo strato i «neuroni»  mappano l’immagine in una griglia di piccole celle, in analogia a quanto accade nella fisiologia della percezione umana.

Il risultato di questo schema di ricezione viene esaminato dagli strati di unità di elaborazione «nascosti», che interpretano confini e colori della figura. L’effetto è una rimappatura dell’immagine per livelli di lettura, che separano il soggetto dallo sfondo, esaminano parti, valutano posture, e così via; possono anche astrarre verso concetti come «fedeltà» o «famigliarità». Maggiore è il numero di questi livelli intermedi, maggiore è il grado di affidabilità con cui all’immagine viene fatta corrispondere l’etichetta che la descrive. A sua volta la didascalia proviene da una tassonomia che la macchina ha archiviato in memoria durante la prima fase di addestramento, insieme ad una galleria di migliaia, se non milioni, di immagini già classificate.

Il compito del software è quindi associare pattern di pixel colorati alle etichette di uno schedario, con un certo grado di probabilità. Nella fase di addestramento con supervisione, se la didascalia scelta dalla macchina è corretta, il sistema rimane immutato; se invece l’output è sbagliato, il giudizio di errore si propaga tra gli strati intermedi che hanno contribuito alla stima, inducendo una variazione nei «pesi» del calcolo. Il procedimento tocca tutte le unità di elaborazione, e il suo perfezionamento è ancora oggi il principale tema di indagine per gli esperti del settore, come ha testimoniato Yann LeCun in un post su X poco meno di un anno fa.

La diffidenza di personaggi come Marvin Minsky e Seymour Papert sulla realizzabilità stessa della retropropagazione dell’errore ha dirottato per anni i finanziamenti su progetti che escludevano il deep learning: ai tempi della prima rete neurale, il Perceptron di Frank Rosenblatt che nel 1958 contava 1 solo livello intermedio, le difficoltà sembravano insormontabili. Come nelle storie dei grandi profeti, Hinton si è armato di fede, speranza – e anche senza la carità dei grandi finanziatori istituzionali, ha implementato una macchina capace di imparare a classificare.

3. LIMITI

La descrizione, colpevolmente troppo riduttiva, del funzionamento di AlexNet lascia anche intuire le condizioni e i limiti della concezione dell’intelligenza che è sottesa alla tecnologia delle reti neurali. Già nel piano di Rosenblatt il riconoscimento di un’immagine è inteso come un metodo che porta alla comprensione del contenuto attraverso l’autorganizzazione del contributo di molti attori atomici, coincidenti con le unità di calcolo: un altro articolo su «Controversie» ha esaminato come questo modello cognitivo derivi dal liberalismo economico e sociale di Von Hayek. Ma conta rilevare adesso altri due aspetti del paradigma: l’isolamento dell’apprendimento da ogni considerazione pragmatica, e la costruttività dal basso del processo di interpretazione.

Merleau Ponty ha esaminato con approccio fenomenologico il ruolo che l’attenzione svolge nella percezione: l’identificazione di persone e cose non è una successione di choc visivi che irrompono dal nulla, ma un flusso che segue un decorso da una maggiore indeterminazione ad una maggiore precisione, sull’istanza di una domanda. La richiesta interpella la nostra libertà di avvicinarci, approfondire, interagire: il riconoscimento avviene sullo sfondo di un mondo che è già in qualche modo pre-compreso, e che suscita interrogativi sulla base della relazione che intratteniamo con la scena in cui siamo immersi – per cui lo stesso masso si rivolge in modo differente ad un geologo, o ad un turista stanco per la passeggiata con il suo cane.

Il riconoscitore di immagini artificiale invece non stabilisce alcuna relazione con il mondo, né ha domande da indirizzargli. Anzi, non ha alcuna cognizione dell’esistenza del mondo e della possibilità di stabilire qualche rapporto con esso. La macchina valuta la probabilità con cui l’attivazione di certi pattern di unità ricettive possa essere messa in relazione con una tra le etichette dello schedario in memoria. Questo spiega come possa cadere nella trappola degli attacchi avversari, in cui il «rumore informativo» dovuto alla sostituzione di alcuni pixel (che non modificano per nulla l’aspetto dell’immagine ai nostri occhi) faccia cambiare le stime di AlexNet, convincendola a preferire l’etichetta struzzo a quelle assegnate correttamente in precedenza a tempio e cane.

Senza un mondo che agisca come orizzonte di senso per azioni e interpretazioni, non esistono domande, quindi nemmeno riconoscimenti e intelligenza – nel senso corrente di questi termini. Non esiste nemmeno la possibilità di un’autocorrezione, come quella che mettiamo a punto in modo istintivo quando incorriamo in un trompe l’oeil o in qualche illusione ottica: è la stabilità del mondo, non la coerenza delle leggi dell’apprensione, a permetterci di ravvisare l’errore. L’inganno per noi infatti è momentaneo, poi la coesione dell’esperienza del reale torna a ripristinare il senso della percezione (anche nei casi di abuso di sostanze psicotrope): è per questo che siamo consapevoli di essere vittime di illusioni.

La separazione della sfera cognitiva da quella pragmatica, e la riduzione della mente ad un sistema di procedure di problem solving, intrappolano invece la percezione in un mondo di specchi e di concetti senza via d’uscita. Le inferenze che si propagano da unità nucleari di percezione sono il correlato di un universo di etichette che non si riferiscono a nulla di reale – tanto da poter ravvisare uno struzzo al posto di un tempio, senza alcuna forma di disagio. Quel disagio che colpisce l’individuo intelligente davanti all’abisso della stupidità.

 

 

BIBLIOGRAFIA

Bottazzini, Paolo, Nello specchio dell’Intelligenza Artificiale - The Eye of the Master, «Controversie», 4 giugno 2024. https://www.controversie.blog/specchio-della-ia.

LeCun, Yann, Please ignore the deluge of complete nonsense about Q*, https://x.com/ylecun/status/1728126868342145481.

Merleau-Ponty, Maurice, Phénoménologie de la perception, Gallimard, Parigi 1945; trad. it. a cura di Andrea Bonomi, Fenomenologia della percezione, Bombiani, Milano 2003.

Minsky, Marvin; Papert, Seymour, Perceptrons, MIT Press, Cambridge 1969.

Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J., Learning representations by back-propagating errors, «Nature», vol. 323, n. 6088, 9 ottobre 1986, pp. 533–536.

Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan, Dumitru, Goodfellow, Ian, Fergus, Rob (2013), Intriguing Properties of Neural Networks, «arXiv», preprint arXiv:1312.6199.


Nobel 2024, Medicina: la genetica al tempo della messaggistica istantanea

MICRO MESSAGGERI DA NOBEL

Il premio Nobel 2024 per la Medicina e la Fisiologia è stato assegnato a Victor Ambros e Gary Ruvkun. I due ricercatori, genetisti, hanno ricevuto il premio per la scoperta nel 1993 del microRNA e del suo funzionamento come regolatore del genoma.

Il DNA è il luogo, la molecola, in cui si conserva l’informazione genetica. Diffuso in ogni cellula del nostro corpo (così come in ogni essere vivente) il DNA, con la sua doppia elica, è il ricettario a cui ogni cellula attinge per produrre proteine. È parte dell’eredità che riceviamo dai nostri genitori biologici e per diversi anni si è creduto fosse un’eredità vincolante, un destino da cui non fosse possibile fuggire.

In realtà il DNA da solo non basta. Il suo utilizzo richiede anche un singolo filamento di RNA che, nei processi di trascrizione e traduzione, assume diverse forme per permettere alla cellula di acquisire l’informazione, trasportarla dove necessario e, infine, tradurla in una molecola complessa utile ai bisogni dell’organismo di cui fa parte.

È in questo processo – mutazioni a parte – che si è iniziata a scoprire la libertà dell’organismo rispetto all’informazione del DNA.

In primo luogo, la ricerca che oggi conosciamo come epigenetica scoprì che alcune proteine potevano bloccare, al bisogno, alcune parti del DNA impedendo che venisse trascritto in RNA messaggero (mRNA) e che, quindi, venisse utilizzato.

La scoperta del microRNA porta ulteriori sviluppi nella comprensione del rapporto complesso tra DNA, organismo e ambiente. I microRNA (miRNA) infatti sono una nuova classe di RNA non codificante, lunghi circa 22 basi nucleotidiche.

Essi agiscono come regolatori diffondendosi nella cellula (e fuori di essa) e bloccando – quando serve - l’mRNA già prodotto. Prima sapevamo che è possibile inviare o non inviare il messaggio, ora conosciamo anche la funzione cancella messaggio. Certo, tutti i componenti del gruppo vedranno la scritta “messaggio cancellato”.

Perché ci è voluto così tanto – dal 1993 al 2024 - perché a questa scoperta venisse riconosciuto il Nobel?

 

MESSAGGIO CANCELLATO. LA SCOPERTA DEI MIRNA DAL VERME ALL’ESSERE UMANO

La passione di Ambros e Ruvkun è il nematode, un vermicello, Caenorhabditis elegans. Vermicello portentoso perché (povero lui) il suo genoma è facilmente manipolabile, si riproduce velocemente ed è persino trasparente. È inoltre perfetto per lo studio dello sviluppo e della differenziazione cellulare: pur nella sua semplicità possiede già un sistema nervoso, un intestino e dei muscoletti. Oggetto dello studio dei due ricercatori, in due diversi laboratori, sono i geni lin-14 e lin-4 entrambi implicati nello sviluppo cellulare di C. elegans.

Ambros, Rosalind Lee e Rhonda Feinbaum riescono a clonare lin-4, scoprendo che funziona da regolatore, negativo, per lin-14. Non solo. È un gene corto e non codifica per nessuna proteina, la cosa al tempo era strana.

Ruvkun, nel frattempo, scopre che questa interazione - il fatto che lin-4 blocchi l’espressione di lin-14 - non avviene interrompendo la produzione di mRNA.

Nei primi anni ‘90 questo era ancora più strano! In qualche modo la regolazione avviene in un secondo momento.

I due laboratori di ricerca decidono nel 1992 di confrontare i risultati. Ne risulta che il piccolo RNA di lin-4 ha un codice complementare all’mRNA di lin-14. Sembrerebbe che il primo sia regolatore del secondo, e questa è una novità.

Queste osservazioni vengono pubblicate nel 1993 sulla rivista Cell e oggi, dopo 30 anni, valgono ai due ricercatori il premio Nobel (Wightman B., Ha I., Ruvkun G. 1993 e Lee R., Feinbaum R., Ambros V. 1993).

Lo stesso Ambros racconta che, in fondo, nessuno pensava questa fosse una scoperta apripista: il modello della genetica del tempo risultava sufficiente alla comprensione dei problemi posti al tempo.

Non solo. Questa interazione era riscontrata solo nel piccolo nematode e non c’era ragione di credere che fosse qualcosa di diffuso.

Nel 1994, alcuni ricercatori si chiedono se non possa essere qualcosa di più importante, ma la domanda cade quasi nel vuoto. Rosalind Lee continuerà a cercare altri esempi di questa regolazione, ma con scarso successo.

La tecnica di quegli anni non aiuta, è necessario infatti “camminare lungo il genoma” cercando per tentativi le sequenze che potrebbero appartenere a un miRNA (Ambros V. 2008).

Nel 2000, Ruvkun, guidato dalla curiosità - come dirà – rompe l’inerzia scoprendo un altro miRNA, prodotto dal gene let-7.

Questo è un gene che si è conservato lungo quasi tutta la catena evolutiva e fa presumere che questo modello di regolazione possa essere diffuso in altre piante e animali. (Pasquinelli A., Reinhart B. et al. 2000). Ambros e Lee continuano il loro lavoro iniziando a scoprire diversi miRNA.

Ambros racconta che pensava di essere tra i pochi, con Lee, se non l’unico, a cercare ancora i miRNA tra il '96 e il 2000. Fino a quando nell’agosto del 2001 non riceve una richiesta da parte di Science: dovrebbe fare da revisore per un articolo di Tom Tuschl sulla scoperta di diverse decine di miRNA.

Fu un colpo per i ricercatori, che cercarono subito di sottomettere un articolo a Cell senza trovare l’interesse della rivista. Disperati andranno da Science, la rivista accorderà loro la pubblicazione in contemporanea se avessero inviato l’articolo entro un giorno. Ci riescono, anche se verrà giudicato un articolo decisamente scarno. Assieme a loro e a Tuschl su quel numero uscirà un terzo articolo sulla scoperta di nuovi miRNA (Ambros V. 2008).

Tra i diversi miRNA scoperti, molti sono stati trovati nel corpo umano.

Il mondo della ricerca inizia a comprendere il potenziale di questi regolatori, così generici e così diffusi. I miRNA regolano finemente il rapporto tra genoma, sviluppo cellulare e rapporto tra organismo e ambiente. Alcune espressioni patologiche di un miRNA possono prodursi in tumori, anche in età infantile come nella rara sindrome di DICER1.

 

OLTRE IL MECCANISMO. DUBBI ,TERAPIE, COMPORTAMENTO E SVILUPPI FUTURI

Oggi i miRNA sono una realtà ormai attestata nella ricerca medica e il Nobel per la Medicina a Ambros e Ruvkun conferma e ribadisce l’interesse diffuso per questo campo di ricerca.

Nel database si trovano 48.860 diversi miRNA diffusi in 270 organismi.  Il meccanismo di produzione di un miRNA, la sua espressione come regolatore, l’interazione con i diversi geni sono ormai sufficientemente chiari (Shang R., Lee S. et al. 2023).

Delle terapie farmacologiche mirate sembrano dare effetti (rimpiazzare un miRNA assente a esempio), ma i risultati dei trial sono ancora controversi. Alcuni di questi evidenziano una grande efficacia (pur se correlativa), altri al contrario danno risultati nulli, quando non tossici per l’organismo (Ho P. T. B., Clark, I. M., Le L. T. T. 2022).

Propaganda farmacologica a parte, sembra interessante comprendere il ruolo di questi piccoletti nel rapporto con l’organismo intero e i suoi bisogni.

In tal senso, sono rilevanti gli studi che cercano di comprendere la funzione regolatrice all’interno di un meccanismo di feedback negativo nei neuroni dopaminergici del mesencefalo. Cellule implicate in comportamenti complessi come quelli di ricompensa o di dipendenza e che vengono a mancare via via che si sviluppano patologie come il Parkinson. Uno studio germinale ma che cerca di tracciare una correlazione tra comportamenti e espressione genetica coinvolgendo il miRNA. (Kim J., Inoue K, Ishii, J. et al. 2007).

Allo stesso modo i miRNA sembrano poter diventare utili biomarcatori.

La loro diffusione in tutto il corpo potrebbe renderli adeguati per lo sviluppo di nuove tecniche diagnostiche per le più diverse patologie, oltre che per lo studio di trattamenti. Anche qui gli studi sono appena agli inizi e per far sì che si sviluppino è necessario comprendere il comportamento dei miRNA Loganathan T., Doss G. 2023).

In ultimo va citata un’osservazione sui miRNA che si può ritenere affascinante: sono stati trovati infatti miRNA ragionevolmente stabili in uno studio comparato sul latte materno.

Per i ricercatori, questi avrebbero il potenziale per venire assorbiti dall’intestino e una delle ipotesi è che si potrebbe avere il passaggio di una continua “comunicazione” di informazioni su comportamenti possibili, sui modi di regolare quel genoma che ci è stato lasciato in eredità (Tingo L., Ahlberg E. 2021).

 

 

BIBLIOGRAFIA

  • https://www.nobelprize.org/prizes/medicine/2024/prize-announcement/
  • https://www.nobelprize.org/prizes/medicine/2024/advanced-information/
  • Weiss C., Ito, K et al. (2017) “A Macro View of MicroRNAs: The Discovery of MicroRNAs and Their Role in Hematopoiesis and Hematologic Disease” in Int Cell Mol Biol, 334: 99-175.
  • Kim J., Inoue K, Ishii, J. et al. (2007) “A microRNA feedback circuit in midbrain dopamine neurons” in Science 317 (5482): 1220-1224.
  • Pasquinelli A., Reinhart B. et al. (2000) “Conservation of the sequence and temporal expression of let-7 heterochronic regulatory RNA” in Nature 408: 86-89.
  • Wightman B., Burglin T. et al. (1991) “Negative regulatory sequence in the lin-14 3’-untranslated region are necessary to generate a temporal switch during Caenorhabditis elegans development” in Genes & Development 5:1813-1824.
  • Bartel D. (2004) “MicroRNAs: Genomics, Biogenesis, Mechanism, and Function” in Cell 116: 281-297.
  • Shang R., Lee S. et al. (2023) “microRNAs in action: biogenesis, function and regulation” in Nat Rev Genet 24(12): 816-833.
  • Ho P. T. B., Clark, I. M., Le L. T. T. (2022) “MicroRNA-Based Diagnosis and Therapy” in Int J Mol Sci 23: 7167.
  • Tingo L., Ahlberg E. (2021) “Non-Coding RNAs in Human Breast Milk: A Systematic Review” in Frontiers of Immunology 12: 725323.
  • Loganathan T., Doss G. (2023) “Non-coding RNAs in human health and diseases as biomarkers and therapeutic targets” in Functional & Integrative Genomics 23: 33.
  • Wightman B., Ha I., Ruvkun G. (1993) “Posttranscriptional Regulation of the Heterochronic Gene lin-14 by lin-4 Mediates Temporal Pattern Formation in elegans” in Cell 75: 855-862.
  • Lee R., Feinbaum R., Ambros V. (1993) “The elegans Heterochronic Gene lin-4 Encodes Small RNAs with Antisense Complementarity to lin-14” in Cell 75: 843-854.
  • Ambros V. (2008) “The evolution of our thinking about microRNAs” in Nature Medicine 14 (10): 1036-1040.