fbpx Separare per conoscere, anche in chimica | Science in the net

Separare per conoscere, anche in chimica

Tempo di lettura: 3 mins

Quando il chimico è alle prese con una miscela complessa di composti sconosciuti e si propone di identificarli, deve innanzitutto separarli. È il caso della maggior parte dei prodotti di origine naturale ma può trattarsi anche di quelli ottenuti da una reazione chimica condotta in un esperimento di laboratorio. Separare per conoscere, insegnavano già i filosofi del passato, come l’abate Etienne de Condillac (1714-1780), precettore del Duca di Parma e ispiratore del grande Lavoisier: “Egli è necessario di scomporre, cioè di separare per conoscere ciascune qualità partitamente”.

Tswett e l’invenzione della cromatografia

L’inventiva dei chimici, con il supporto determinante dei biochimici, si è sbizzarrita alquanto nella messa a punto delle tecniche separative fin dagli albori del secolo XX. Risale al 1906 la prima pubblicazione di un metodo di separazione piuttosto rudimentale che utilizzava colonnine di vetro riempite di carbonato di calcio e che venne applicato alla separazione di pigmenti. Fu proprio in ragione delle bande colorate che i diversi composti formavano percorrendo la colonna che il metodo venne chiamato cromatografia. L’inventore fu il russo Mikhail Semenovich Tswett (1872-1919), che si laureò nel 1896 a Ginevra con una tesi in botanica, poi tornò in Russia e, dal 1901 in poi, lavorò a Varsavia che, all’epoca, faceva parte dell’Impero russo. Per un certo numero di anni quasi nessuno si interessò del lavoro di Tswett.

La cromatografia liquido-liquido di Martin e Synge

La “riscoperta” avvenne nel 1931 e dieci anni dopo nacque la cosiddetta cromatografia di partizione che nel 1952 fruttò il Premio Nobel per la Chimica a A.J.P. Martin (1910-2002) e R.L.M. Synge (1914-1994). Il loro articolo pubblicato sul Biochemical Journal nel dicembre 1941 è una delle tappe fondamentali nell’evoluzione della cromatografia. I due inventarono una nuova forma di cromatografia, denominata cromatografia liquido-liquido, che non dipendeva dall’adsorbimento dei soluti su una fase solida, ma dalla loro ripartizione fra due fasi liquide. Essi svilupparono anche una teoria generale della cromatografia, basata sul concetto di “piatto teorico”, che la collegava alla distillazione frazionata e all’estrazione. Intanto, nel 1951, era nata anche la cromatografia gas-liquido (GLC) che era basata sulla ripartizione dei soluti fra una fase mobile gassosa e una liquida.

La cromatografia gas-liquido

La GLC s’impose rapidamente perché possedeva caratteristiche di velocità, efficienza, sensibilità e versatilità che nessun’altra tecnica di separazione aveva. Era però applicabile solo a composti che potevano passare allo stato di vapore con relativa facilità. Per questo motivo la ricerca si orientò sulla tecnica di Martin e Synge, anche se gli ostacoli di carattere strumentale erano piuttosto impegnativi, perché bisognava operare ad alte pressioni per permettere alla fase mobile di attraversare una colonna riempita con una fase stazionaria molto fine.

Il cromatografo HPLC di Lipsky e Horváth

Il primo cromatografo per HPLC (Cromatografia Liquida ad Alte Prestazioni) venne messo a punto presso la Yale Medical School nel 1965. Il risultato venne dalla collaborazione di S.R. Lipsky (1924-1986) e C. Horváth (1930-2004), i quali, nel 1966, pubblicarono un primo articolo su Nature. Bisogna dire però che l’articolo più importante uscì l’anno dopo su Analytical Chemistry, quindi esattamente mezzo secolo fa. Oggi non vi è laboratorio che non si avvalga dell’HPLC per la separazione di composti non volatili o termosensibili.

Dalle ricerche NASA ai laboratori di tutto il mondo

L’ungherese Horváth, che aveva lasciato il suo Paese nel 1956 e che già lavorava negli USA presso l’Harvard Medical School di Cambridge (Mass.), raggiunse Lipsky a Yale perché a Cambridge non erano molto convinti che il suo interesse per l’HPLC fosse giustificato. Lipsky era stato scelto dalla NASA come principale analista delle sostanze organiche che fossero state eventualmente reperite sulla Luna. Questo gli permise di formare il Gruppo di cui avrebbe fatto parte anche Horváth.

L’invenzione dell’HPLC, una tecnica routinaria di separazione, oggi applicata nei campi più disparati, dalle analisi cliniche a quelle alimentari, ambientali e industriali, è quindi, se così si può dire, una ricaduta di straordinaria utilità di una ricerca apparentemente “inutile” come l’esplorazione del suolo lunare.

 

 

 


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why have neural networks won the Nobel Prizes in Physics and Chemistry?

This year, Artificial Intelligence played a leading role in the Nobel Prizes for Physics and Chemistry. More specifically, it would be better to say machine learning and neural networks, thanks to whose development we now have systems ranging from image recognition to generative AI like Chat-GPT. In this article, Chiara Sabelli tells the story of the research that led physicist and biologist John J. Hopfield and computer scientist and neuroscientist Geoffrey Hinton to lay the foundations of current machine learning.

Image modified from the article "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

The 2024 Nobel Prize in Physics was awarded to John J. Hopfield, an American physicist and biologist from Princeton University, and to Geoffrey Hinton, a British computer scientist and neuroscientist from the University of Toronto, for utilizing tools from statistical physics in the development of methods underlying today's powerful machine learning technologies.