BREVE STORIA DELLA CHIRURGIA VASCOLARE
Le fondamenta della moderna chirurgia cardiovascolare giacciono su tutte le discipline che governano la pratica cardiovascolare. Tali discipline sono l’anatomia, la fisiologia, la fisiopatologia e la farmacologia. Tra questi fattori vi sono lo sviluppo delle tecniche per l’anestesia toracica che hanno consentito ai chirurghi di lavorare con sicurezza ed in modo libero nella gabbia toracica aperta; tecniche e strumenti innovativi per suturare i vasi sanguigni; l’eliminazione delle principali cause di reazioni avverse alle trasfusioni; lo sviluppo di tecniche per l’immagazzinamento del sangue; adeguate tecniche per la diagnosi pre-operatoria; ed infine l’introduzione dell’ipotermia e della macchina cuore-polmone oltre che la circolazione extracorporea.
Quando Dwight Harken tenne la prima “Laurence Brewster Ellis lecture” al Boston City Hospital il 5 novembre 1965, egli sostenne che l’inizio della moderna era della chirurgia cardiaca risaliva alla fine del XIX secolo. Inoltre, egli descrisse quattro epoche principali nell’evoluzione della chirurgia a partire da quel periodo.
-
A) Il primo periodo fu la chirurgia diretta verso le grandi arterie, il pericardio e le ferite da arma bianca al cuore. Questo fu il periodo della chirurgia extracardiaca. Comunque, i suoi inizi possono essere fatti risalire ancora oltre il periodo stabilito da Harken nella fine del XIX secolo. Le ferite da arma bianca del cuore venivano trattate nei campi di battaglia già molto tempo prima e trattate con urgenza senza il beneficio dell’anestesia.
-
B) La seconda era consistette nei tentativi, inizialmente alla cieca, di rimozione di corpi estranei dall’interno del cuore e dopo nella chirurgia delle valvole cardiache e dei difetti settali. Dwight Harken giocò un ruolo importante nello sviluppo delle tecniche chirurgiche durante questa era e fornì l’esperienza necessaria per gli sforzi pionieristici nella riparazione dei difetti settali e delle lesioni valvolari.
-
C) La chirurgia a cuore aperto fu la terza fase evolutiva. Essa necessitò per l’implementazione dell’introduzione dell’ipotermia e bel bypass cardiopolmonare.
-
D) L’ultima ed fase è quella della sostituzione (tecniche di sostituzione valvolare e trapianto). Rimangono ancora molti ostacoli. Dal punto di vista di Harken (1965) questa era allo stadio primordiale e piena di incognite. Lo sviluppo di materiale sempre più idonei alle sostituzione protesiche e la terapia antirigetto nei trapianti ha permesso notevoli progressi anche di tali pratiche.
A) CHIRURGIA EXTRACARDIACA
Questa rappresenta la prima fase delle epoche di Dwight Harken. La chirurgia vascolare come specialità indipendente non emerge fino alla fine del XIX secolo. Prima di ciò la sua storia può essere caratterizzata come consistente di sforzi sporadici da parte di individui temerari, limitati nello sforzo e con un’alta percentuale di insuccessi. I semplici gesti della sutura e ligatura erano difficoltosi e costituirono per dei secoli un’insormontabile barriera.
La ligatura era il metodo principale per riparare questi vasi danneggiati e rappresentava un metodo per impedire la morte da emorragia, ma non proteggeva la vitalità dei tessuti che dipendevano dall’arteria interessata. Questo fu un problema introdotto probabilmente dalla scuola alessandrina. Un contemporaneo di Galeno, Antyllus, potrebbe essere stato il primo ad aver applicato questa tecnica nel trattamento degli aneurismi. Antyllus raccomandava di trattare gli aneurismi periferici attraverso la ligatura prossimale e distale dell’arteria affetta e di evacuare il contenuto del sacco con un foro nella parete arteriosa. Questa era in sostanza un’aneurismectomia. Galeno una volta utilizzò la ligatura come base per smentire la credenza che le arterie trasportassero aria. Egli fece ciò aprendo in un animale vivo il segmento arterioso tra le due ligature posizionate in maniera serrata. Le ligature erano note anche a Celso, ma non c’è niente nei suoi scritti che ne suggerisce l’utilizzo da parte sua come una procedura regolare.
Guy de Chauliac reintrodusse il termine ligatura in epoca medievale, sebbene non nello stesso senso della moderna definizione. Nel suo trattato “Chirurgia Magna”, che comparve nel 1363, durante il periodo della peste nera, egli descrisse l’applicazione di una fasciatura avvolta tra i margini di una ferita come strumento per controllare l’emorragia, approccio che fu presto abbandonato in favore dell’olio bollente o cauterio.
Questo metodo barbarico rimase in voga fino al XVI secolo, allorché Ambroise Parè sostenne, su base empirica, il ritorno della ligatura al posto del cauterio. Durante la prima parte del XVIII secolo il salasso era un trattamento ancora popolare. Questa pratica diede a Hallowell, nel 1759, l’opportunità di operare un aneurisma dell’arteria brachiale che era una frequente complicanza di tale procedura. Egli richiuse interamente la piccola apertura dell’arteria brachiale ricamandone il margine con ago e filo. La continuità arteriosa era ancora mantenuta sebbene dopo poco tempo il filo e l’ago fossero staccati in base alle considerazioni legate al cosiddetto periodo post-operatorio del “lodevole pus”. La procedura divenne nota come operazione Lambert-Hallowell dal momento che era stato Lambert ad inviare il paziente ad Hallowell. La tecnica Lambert-Hallowell indusse C. Asman a provarla sperimentalmente producendo lacerazioni su piccole arterie negli animali. I suoi sforzi furono infruttuosi, e quando egli pubblicò le sue osservazioni nel 1773, i risultati negativi determinarono il rapido abbandono di tale approccio come procedura clinica. Il principale difetto dell’operazione Lambert-Hallowell era che la sutura obliterava invariabilmente il lume dell’arteria.
Dovettero passare altri 127 anni prima che venisse riportato un secondo tentativo di una sutura laterale in un’arteria. Questo tentativo fu descritto da P. Potempski in una presentazione davanti alla Società Italiana di Chirurgia nel 1886. Nel 1897 John B. Murphy, noto anche per l’eponimo “punto di Murphy”, eseguì la prima sutura termino-terminale di un’arteria. Nel 1897, lo stesso anno che vide l’introduzione della tecnica di Murphy, il tedesco Erwin Payr (1871-1946), sviluppò un congegno per piegare la terminazione prossimale su un anello di magnesio assorbibile che gli permetteva di inserire quella terminazione nel margine dell’arteria ricevente. Questo congegno è conosciuto come anello di Payr, e non ottenne un nessun consenso a causa della fibrosi che induceva. Secondo Hopfner, il berlinese M. Nitze mostrò al congresso internazionale di Mosca una protesi in anello di avorio su cui poter avvolgere le terminazioni dei vasi. Tale anello veniva rimosso dopo la sutura.
Si dovette però aspettare l’arrivo di Alexis Carrel prima che la procedura fosse pienamente disponibile. Prima di descrivere il grande successo di Carrel, dobbiamo ritornare un po’ indietro per raccontare l’evoluzione delle anastomosi del tipo vena-vena e di quella arteriosa. La prima descrizione di una anastomosi veno-venosa viene ascritta ad un russo, Nicolai Vladimirovich Eck (1849-1908). Nel 1877 egli descrisse un anastomosi latero-laterale vena porta-vena cava in una serie di esperimenti animali. La prima ligatura della vena porta negli umani fu riportata dal newyorchese George E. Brewer (1861-1939) nel 1908. La vena era già parzialmente occlusa per la compressione esterna dovuta ad una cisti di Echinococco. Il colpo finale fu dovuto ad un’inavvertita lacerazione della vena mentre Brewer cercava di rimuovere la cisti. Gli shunt porto-cavali erano stati già effettuati in molti centri, uno dei quali si trovava a Palermo ed era diretto da I. Tansini. La prima anastomosi porto-cavale latero-laterale nell’umano fu riportata al KrankenhausHasenheidezuBerlin per opera di Paul Rosenstein nel 1912. In tutto ciò, la sutura delle vene manifestava le stesse complicanze della riparazione arteriosa. H. Braun, nel 1882, consigliò l’uso di seta fine disinfettata o catgut e riportò la riparazioni eseguite con successo di una lacerazione accidentale della vena femorale durante un intervento operatorio per rimozione di una lesione metastatica carcinomatosa. Il primo trapianto renale registrato fu riportato nel 1902 da Emerich Ullmann (1861-1937), un “Privatdozent” dell’Università di Vienna. Usando i cani, egli riuscì ad anastomizzare l’arteria renale all’arteria carotidea e la vena renale alla vena giugulare esterna usando un anello di magnesio come aiuto nella sutura.
Alexis Carrel introdusse una tecnica per anastomizzare i vasi sanguigni senza vasocostringere il lume o causare trombosi. Il suo lavoro iniziale fu condotto su cadaveri umani e dopo su cani nel laboratorio di Soulier a Lione, in Francia. L’anastomosi dei vasi venosi era un elemento critico nel trapianto di organi, e fu per tale ragione che Carrel rivolse la sua attenzione al problema, ed è per questo motivo che bisogna analizzare con attenzione lo sviluppo storico sia delle anastomosi artero-venose che di quelle veno-venose. Carrel, in collaborazione con Morel e Berard, dimostrò ripetutamente la fattibilità del “grafting” tra vene ed arterie, e tra arterie ed arterie. Utilizzando il suo innovativo approccio anastomotico, Carrel, insieme a Morel, riuscì a trapiantare il rene di un cane dalla sua sede normale al collo suturando l’arteria e la vena renale rispettivamente all’arteria carotidea comune ed alla vena giugulare esterna. Il loro approccio era radicalmente differente da quello di Ullmann. Carrel e Guthrie riuscirono a trapiantare sia “graft” vascolari freschi che quelli immagazzinati a temperatura di quasi congelamento. Il secondo dimostrò che la vita latente dei graft vascolari quasi congelati era considerevole. Il mondo vedrà le implicazioni dei contributi di Carrel in forma di bypass di vene safene a partire dal 1948, di trapianto routinario di organi a partire dal 1954 con il primo trapianto umano di rene, seguito dal primo trapianto di cuore umano per opera di Barnard nel 1967, e di reimpianto di arti a partire dal 1962.
Probabilmente, il più importante contributo di Rudolph Matas fu il suo sviluppo tecnico delle procedure chirurgiche che assicurava l’efficace occlusione degli aneurismi arteriosi periferici senza emorragie o ricadute. Egli descrisse dettagliatamente anche i vari tipi di ferite alle arterie, il processo di guarigione dopo lesione arteriosa ed i vari metodi per trattare queste ferite. Egli era solito praticare la ligatura delle arterie anche se considerava la sutura come il metodo ideale. Matas affermò più volte sulle sue raccolte come considerasse il suo approccio agli aneurismi periferici arteriosi la sintesi dei suoi contributi. Furono i rischi ed i difetti inerenti ai precedenti metodi di ligatura che condussero Matas a sviluppare una propria tecnica di endoaneurismorrafia. Questa fu concepita il 30 maggio 1888 mentre egli stava operando un paziente con un aneurisma brachiale traumatico che la ligatura prossimale e distale dell’arteria non era riuscita a curare.
Ma la continua crescita della chirurgia vascolare necessitava dello sviluppo dell’angiografia con mezzo di contrasto, dell’introduzione dell’eparina come anticoagulante e della disponibilità di materiali sintetici per la sostituzione di segmenti arteriosi. Nel 1905 Carrel e Guthrie eseguirono con successo il primo trapianto biterminale di una vena nel cane, ed in seguito sottolinearono la possibile esecuzione clinica di autoinnesti liberi venosi. Nel 1907, Levin e Larkin dimostrarono che gli omoinnesti devitalizzati potevano funzionare ma solo per brevi periodi. Donald Murray sembra essere stato colui che per primo utilizzò l’eparina in chirurgia vascolare. Nel 1932, durante esperimenti con autoinnesti venosi nei cani presso l’Università di Toronto, egli dimostrò che la trombosi poteva essere prevenuta attraverso la somministrazione di eparina. Robert Gross, ad Harvard, fu particolarmente attivo nel campo e negli anni quaranta riuscì a dimostrare che omoinnesti arteriosi conservati potevano essere usati nelle principali arterie come l’aorta. Nel 1944, William G. Austen e collaboratori, a Boston, consigliarono certi passi critici nella preparazione della vena come innesto libero per minimizzarne i possibili danni. Essi suggerirono di immergere il preparato in soluzione salina a 4°C e pH 7, e di non stirare troppo la vena quando doveva essere irrigata prima dell’impianto.
Joao Cid dos Santos (1907-1975) dovrebbe essere considerato come colui che per primo ha rimosso un complesso aterosclerotico ostruttivo. Il suo target era l’arteria femorale e la sua innovativa procedura fu riportata da lui nel 1947. Dopo una lunga sperimentazione, Arthur Voorhees (1921-1992) ed il suo team iniziarono, nel 1953, a sostituire segmenti aortici con innesti sintetici nell’uomo. Da allora un’estesa esperienza clinica ha mostrato che materiali sintetici come dacron e teflon sembrano funzionare bene nelle grandi arterie ma non in quelle più piccole. La sostituzione con vene autogene è ancora il metodo di scelta per le arterie periferiche. Sfortunatamente, i sostituti sintetici sono inclini alla trombosi se hanno un diametro inferiore ai 9 mm ed una lunghezza maggiore di 30 cm.
Le prime operazioni per dissecazione aortica acuta tentarono di creare un rientro o un recupero del circolo nelle principali branche staccate dalla dissecazione. Queste procedure furono riportate per la prima volta da Gurin e collaboratori nel 1935 ed in seguito da Shaw nel 1955. La percentuale d’insuccessi con tali approcci era piuttosto alta, e per tale ragione Paullin e James consigliarono nel 1948 di avvolgere l’area della dissecazione. Da parte sua Johns riportò la riparazione con successo di un aneurisma dissecante dell’aorta addominale semplicemente suturando l’area che era andata incontro a rottura. Il trattamento moderno della dissecazione aortica ebbe inizio con Michael Ellis DeBakey (cognome inglesizzato dal libanese, terra di cui era originario, Dabaghi) nel 1954. A quell’epoca i suoi colleghi erano Denton Arthur Cooley e Oscar Creech jr (1916-1967). Tutti e tre gli americani divennero famosi chirurghi cardiovascolari. Il primo caso di DeBakey fu riportato nel 1955. L’aorta toracica discendente era coinvolta nella dissecazione. Egli resecò la dilatazione aneurismatica del falso canale e cucì l’entrata distale all’interno del falso canale. La procedura fu completata con un’anastomosi termino-terminale. DeBakey fu anche un inventore oltre che un innovatore all’interno del teatro chirurgico. Una pompa da lui congegnata mentre era ancora studente di medicina fu integrata l’anno successivo come componente essenziale della macchina cuore-polmone. Egli ed i suoi associati furono anche i primi ad eseguire bypass aorto-coronarico con graft di vena safena autogena, e nel 1968 guidò un team di chirurghi in una procedura di trapianto multiplo. Questo fu uno storico evento in cui cuore, reni ed un polmone di un donatore furono trapiantati in quattro diversi pazienti.
Spencer e Blake furono i primi a descrivere nel 1962 la riparazione con successo della dissecazione cronica nell’aorta ascendente.
Chirurgia dell’arteria carotidea
I primi tentativi nel campo della chirurgia carotidea furono le procedure di ligatura eseguite per la riparazione di ferite traumatiche. Jesse Thompson, nella sua “Storia della chirurgia dell’arteria carotidea” (1986), ritiene che l’inglese John Abernathy (1764-1831) possa essere stato colui che per la prima volta eseguì deliberatamente la ligatura della carotide. Il suo paziente stava perdendo sangue dall’arteria carotidea sinistra dopo essere stato incornato da una mucca. I tentativi di controllare l’emorragia erano falliti, e per tale ragione Abernathy ricorse alla ligatura. Il paziente morì 30 ore dopo. Abernathy fu uno dei più famosi pupilli di John Hunter. Per il 1868 Pilz riuscì a raccogliere e registrare 600 casi di ligatura carotidea eseguiti come controllo dell’emorragia o riparazione di un aneurisma cervicale. La mortalità era alta con una percentuale di morte del 43%.
Astley Cooper fu il primo ad eseguire la ligatura dell’arteria carotidea per un aneurisma cervicale. Egli effettuò la procedura due volte; la prima volta nel 1805 con insuccesso e la seconda nel 1808. Cooper riportò che il secondo paziente sopravvisse per altri 13 anni.
Durante la prima metà del XIX secolo, la ligatura carotidea era eseguita anche per il trattamento dell’epilessia, psicosi e nevralgia del trigemino. Benjamin Travers, di Londra, tentò con successo la procedura nel 1809 in un paziente che aveva un esoftalmo pulsante dovuto a fistola carotido-cavernosa. Nonostante il rischio di complicanze cerebrali legati alla ligatura, la procedura veniva utilizzata per varie lesioni neurovascolari. Harvey Cushing non aveva nessun timore di praticare la ligatura delle carotidi interne. Nel 1932 egli disse
“ho eseguito la ligatura delle carotidi interne molte volte senza sintomi apparenti”.
I concetti in evoluzione sull’eziologia e la gestione degli “stroke” ischemici hanno condotto ad un incremento dell’interesse verso la chirurgia delle carotidi a partire dagli anni cinquanta del XX secolo. Nonostante il fatto che molti osservatori come Gull nel 1855, Savory nel 1856, Broadbent nel 1875 e Penzoldt nel 1881 avevano tutti descritto casi di stroke dovuto al blocco delle principali arterie extracraniche del cervello, l’opinione più diffusa era che l’apoplessia era quasi invariabilmente dovuta ad emorragia cerebrale o ostruzione nei segmenti intracranici.
H. Chiari descrisse per la prima volta una placca ulcerante dell’arteria carotidea. Ciò accadde nel 1905. Quando il portoghese Egas Moniz introdusse nel 1927 l’arteriografia cerebrale, lo studio clinico fu indirizzato al riconoscimento della malattia occlusiva extracranica. Dovettero passare molti anni prima che i clinici comprendessero a pieno i vantaggi di tale tecnica nella ricerca delle cause precipitanti lo stroke. Entro il 1951, Johnson e Walker raccolsero dalla letteratura solo 101 casi in cui la trombosi dell’arteria carotidea era stata diagnosticata con arteriografia. Nello stesso anno Fisher descrisse la fisiopatologia dell’insufficienza cerebrovascolare dovuta all’aterosclerosi carotidea. Egli consigliò di bypassare il blocco anastomizzando l’arteria carotidea esterna o una delle sue branche con l’arteria carotidea interna al di sopra dell’area stenotica. Il suggerimento di Fisher fu subito accolto da R. Carrea, Molins e Murphy, di Buenos Aires. Essi ripristinarono il flusso sanguigno nel loro paziente con un’anastomosi termino-teminale dalla carotide esterna a quella interna.
Il primo tentativo riportato di tromboendoarteriectomia dell’arteria carotide cervicale interna fu descritto da Strully, Hurwitt e Blankenberg nel 1953. Comunque, essi non riuscirono ad ottenere un flusso retrogrado e affermarono l’utilità dell’endoarteriectomia solo quando i vasi distali al blocco erano pervi. La prima endoarteriectomia della carotide eseguita con successo fu praticata da DeBakey in un paziente che aveva avuto uno stroke dovuto a totale collusione della arteria carotidea sinistra. Egli riuscì ad ottenere un buon flusso retrogrado dall’arteria carotidea interna, ed un immediato arteriogramma postoperatorio confermò l’apertura completa dell’intero albero carotideo interno. DeBakey riportò tale esperienza nel 1975 sebbene egli avesse eseguito l’operazione il 7Agosto 1953.
Un vero passo storico a riguardo fu quello fatto al St Mary’s Hospital di Londra nel 1954. Questo evento fornì la scintilla per ulteriori interventi chirurgici sulle lesioni coinvolgenti le arterie carotidee. Il paziente soffriva di ripetuti episodi di ischemia transitoria dovuti astenosi della biforcazione carotidea sinistra. Utilizzando l’ipotermia durante il clampaggio carotideo, il team di Eastcott, Pickering e Rob resecò l’area biforcata e ripristinò il flusso sanguigno con un’anastomosi termino-terminale tra la carotide comune e la carotide interna distale. Il loro articolo venne pubblicato alla fine del 1954, sei mesi dopo che essi ebbero eseguito la procedura.
Nelle successive tre decadi, concomitanti con lo sviluppo delle tecniche diagnostiche non invasive, la chirurgia carotidea si affermò sempre più. L’endoarteriectomia continua ad essere l’approccio preferito sebbene le procedure di resezione, grafting e bypass sono utilizzate qualora le circostanze richiedono l’esecuzione di queste tecniche alternative.
Embolectomia dell’arteria polmonare
La rimozione di emboli dall’arteria polmonare fu praticata e descritta per la prima volta dal tedesco Friedrich Trendelenburg. L’intervento si basava sull’esperienza acquisita su vitelli e cadaveri. Nei trial clinici, Trendelenburg ed associati, nonostante 12 tentativi su casi selezionati, non erano riusciti ad ottenere alcun successo. Tutti i loro pazienti morirono. M. Kirschner, utilizzando la tecnica e gli strumenti sviluppati da Trendelenburg, annunciò i suoi risultati ad un meeting in cui era presente lo stesso Trendelenburg. Ciò accadde nel 1924 con il resoconto di un intervento su una donna di 38 anni eseguito con successo. La mortalità del 100% di insuccessi iniziò finalmente a regredire nel 1958 allorchè Richard Steenburg ed i suoi associati eseguirono al Peter Bent Brigham Hospital un operazione di successo su una vecchia donna di 65 anni utilizzando la tecnica Trendelenburg modificata.
Comunque, in quel tempo, erano stati fatti progressi nelle trasfusioni sanguigne, anestesie endotracheali, terapia antibiotica e, cosa più importante, nella gestione delle aritmie potenzialmente letali. Inoltre, le lezioni imparate dalle procedure cardiochirurgiche furono, senza dubbio, importanti nell’ulteriore riduzione della mortalità.
Ferite penetranti del cuore
Nel corso dei secoli si è avuto un atteggiamento fatalistico riguardo a tutte le ferite cardiache. Come ci si può aspettare, le ferite cardiache erano piuttosto comuni ma considerate dalle autorità dell’antichità come impossibili da correggere. Aristotele fu uno dei primi ad esprimere questa tesi nichilistica:
“Tra tutti i visceri solo i cuore non può sopravvivere alle ferite. Questo è quanto ci si deve aspettare perché quando la forza [del cuore] viene distrutta non c’è aiuto che si può dare agli organi che dipendono da esso”.
Non fu prima del XVII e XVIII secolo dc che comparve una nuova e più ottimistica riconsiderazione grazie ai lavori di Falloppio, Fabrizio d’Acquapendente e Morgagni. Ciò accadde a causa delle sempre più frequenti osservazioni al postmortem di lesioni rimarginate che erano di origine chiaramente traumatica. Comunque, il più completo studio autoptico che provò che il recupero dalla ferite cardiache era possibile comparve solo nella seconda parte del XIX secolo. Questo era la monografia di George Fischer pubblicata nel 1868. Il suo lavoro, “Die Wunden des Herzen und des Herzbeutels”, si basava su un’analisi statistica di 452 casi che rivelò un percentuale di recupero del 10%.
Nel 1882 Block riportò la riparazione di ferite nel cuore di coniglio tramite sutura. Nel 1894, Del Vecchio presentò un articolo al XI Congresso Medico Internazionale di Roma che confermava il lavoro di Block. Del Vecchio aveva creato delle ferite su cani e le aveva riparate tramite sutura. Comunque, tali osservazioni sperimentali non crearono nessun particolare interesse nell’arena clinica. Infatti, i medici di famosi dell’epoca come Billroth, Paget e Riedinger erano piuttosto contrari ad ogni tentativo di sorta sull’essere umano. La principale risposta data da Billroth era che, data la sua reputazione come uno dei più famosi chirurghi d’Europa, sarebbe stato per lui controproducente e dannoso operare il cuore. Si dice che un anno dopo il report di Block, Billroth avesse scioccamente affermato
“nessun uomo che tenta di operare sul cuore merita il rispetto dei suoi colleghi”.
Nel 1896, Ludwig Rehn (1849-1930) eseguì con successo l’intervento di sutura su una ferita da arma penetrante nel cuore umano. Rehn non fu il solo a demolire tali errate credenze. Nello stesso periodo comparvero altri due report, uno del romano Farina e l’altro prodotto dal norvegese Cappelen. Nel 1926, Claude Beck pubblicò un importante articolo sulle ferite cardiache, “Wounds of the Heart”. Esso conteneva la prima descrizione in inglese delle varie fasi tecniche nella riparazione della ferita cardiaca. Il lavoro è considerato un classico perché non solo presentava le osservazioni sperimentali dello stesso Beck sulle migliori tecniche di approccio alle varie lesioni, ma anche perché esaminava il background storico della chirurgia nelle ferite cardiache fino a quel tempo. Negli anni trenta Griswold aveva già riparato le ferite cardiache in 12 pazienti, dopo aver acquisito interesse verso questo tipo di chirurgia mentre lavorava con Beck alla Cleveland Clinic.
Chirurgia del Pericardio
La componente rimanente dell’era extracardiaca è l’evoluzione nella gestione chirurgica delle lesioni pericardiche.
I primi interventi sul pericardio erano concentrati sulla rimozione del fluido pericardico dal sacco ed, in particolare, sulla rimozione del sangue in seguito a lesione traumatica. Kotte e McGuire fanno risalire la prima pericardiocentesi a Romero nel 1819. Con il progresso delle tecniche diagnostiche la pericardiocentesi divenne sempre più frequente. Ciò accadde specialmente con l’introduzione dell’ecocardiografia nel XX secolo. La natura non invasiva dell’ecocardiografia insieme alla sua sicurezza e capacità di fornire una prognosi immediata, è stata determinante nel rendere l’aspirazione pericardica una procedura utile e spesso salvavita.
Anche la pericardite costrittiva si prestò facilmente all’intervento chirurgico. Weill fu il primo a suggerire l’approccio chirurgico nel 1895. Delorme eseguì la decorticazione e rimozione di segmenti pericardici nei cadaveri, e riportò tale esperienza nel 1898. Anche Carl Beck consigliò questo tipo di approccio nei primi anni del novecento. Nel 1902 Brauer, un medico tedesco, consigliò ai chirurghi l’esecuzione di quella che chiamò la “cardiolisi”. Questa tecnica implicava la rimozione di coste e cartilagine soprastanti la ferita pericardica senza tentare di rimuovere le adesioni. Sebbene tale procedura fosse stata applicata da Peterson e Simon nella decade successiva, non divenne mai un vero e proprio rimedio fisiologico a differenza dell’approccio della decorticazione sostenuto da Weill, Delorme e Carl e Beck. Comparvero molti report sparpagliati a conferma di questi pionieri, ma solo con l’ingresso nella scena di Ludwig Rehn si ebbe la definizione della resezione pericardica come procedura si scelta. Il suo articolo comparve nel 1920 e si basava sulla sua esperienza con 4 pazienti.
Anestesia Toracica
I metodi per mantenere i pazienti in vita durante le procedure chirurgiche che riguardano il torace si possono trovare anche nel corso del XVI secolo. Quando Vesalio praticava la dissezione manteneva i suoi animali in vita durante i suoi esperimenti sui polmoni soffiando aria attraverso il lume di una canna o giunco posizionato nella trachea.
Dopo la scoperta dell’anestesia, un importante passo in avanti fu fatto dal londinese John Snow. Egli è considerato il primo anestesista a tempo pieno, costituendo un precedente che non venne adottato routinariamente negli ospedali fino al XX secolo. Egli dimostrò la possibilità di mantenere la respirazione e l’anestesia attraverso un tubo avente un’estremità attaccata ad un sacchetto riempito con vapori di cloroformio e l’altra inserita nella trachea tramite una tracheotomia. Snow pubblicò un articolo sull’etere intitolato “On the Inhalation of the Vapor of Ether”. Un altro articolo fu pubblicato postumo nel 1858 con il titolo “On Chloroform and Other Anaesthetics, and Their Action and Administration”.
Trendelenburg applicò tale tecnica ad un soggetto umano nel 1869 come strumento per impedire l’aspirazione di sangue nei polmoni mentre operava sulle vie aeree superiori. Il suo tubo endotracheale aveva una cuffia gonfiabile che sigillava la parte terminale della trachea in modo da impedire al sangue di refluire dalle vie respiratorie superiori e consentire all’aria di passare attraverso il tubo. Per consentire lo sviluppo della chirurgia toracica si dovette affrontare il problema del pneumotorace e dei conseguenti shock ed asfissia. I tentativi iniziali utilizzavano l’intubazione intralaringea o endotracheale come strumenti per mantenere la respirazione artificiale. Tuffier e Hallion introdussero una tecnica di insufflazione nel 1896. Essi descrissero la resezione di parte di un polmone mantenendo la respirazione artificiale con un tubo inserito attraverso la laringe nella trachea. La terminazione distale del tubo aveva una forma a T che permetteva la somministrazione di cloroformio da una parte e di aria dall’altra attraverso un mantice.
Rudolph Matas, nella sua ricerca per sviluppare un approccio sicuro, pose l’attenzione sul pneumotorace indotto chirurgicamente. Egli fece ricorso ad una modificazione del dispositivo di Fell-O’Dwyer. Il dispositivo originale era stato congegnato da Fell, di Buffalo, New York. Questo consisteva di un mantice a pedale collegato ad un tubo o una maschera facciale. La modificazione di O’Dwyer consisteva di una terminazione endotracheale del tubo con punte coniche adattabili per un migliore inserimento nella laringe. Il congegno fu introdotto originariamente come strumento per alleviare il distress respiratorio nelle lesioni ostruttive difteriche o nell’avvelenamento da oppio.
La varietà e complessità delle nuove tecniche erano una meraviglia di ingegnosità, anche se spesso ingombranti. La tecnica di Quenu, descritta nel 1896, si basava sul concetto che il pneumotorace chirurgico si poteva evitare insufflando i polmoni, durante l’operazione, con aria ambiente ad una pressione maggiore di quella atmosferica. Ciò richiedeva l’uso di una camera a pressione positiva nella forma di un casco da palombaro che veniva sigillato sul collo quando posizionato sulla testa del paziente.
Nel 1903, Ernst Ferdinand Sauerbruch propose il posizionamento del torace del paziente all’interno di una camera a pressione negativa. La testa del soggetto rimaneva fuori della camera con il collo sigillato alla parete. Dopo esser stato testato sui cani, tale approccio fu provato per la prima volta su un umano con Sauerbruch posto ai comandi ed il suo mentore, Mikulicz, al lavoro come chirurgo che eseguiva l’intervento dentro una camera di vetro e ferro delle dimensioni di 500 piedi cubici.
Essa venne introdotta negli USA da Willie Meyer del Rockefeller Institute. Egli ne aveva personalmente osservato l’uso da parte del suo inventore nel 1904, e ne rimase talmente impressionato che nei successivi cinque anni studiò con attenzione le possibili applicazioni delle camere a pressione negativa e positiva nelle procedure chirurgiche del torace. Gli sforzi di Meyer culminarono nel suo progetto di una camera a pressione universale. Questa consisteva in una piccola camera a pressione positiva per l’anestesista e la testa del paziente, ed una camera più grande a pressione negativa che conteneva l’intero team chirurgico ed il resto del corpo del paziente. In sostanza, questo era un teatro chirurgico costruito esclusivamente per la chirurgia toracica. Il Lenox Hill Hospital di New York fu il primo ad avere una tale camera costruita per questo proposito. Ciò accadeva nel 1911 e Meyer si occupò del progetto.
La scoperta del principio di insufflazione nell’anestesia endotracheale avvenne nel 1907 da parte di Barthelémy e Dufour. La stessa scoperta fu fatte in modo indipendente da Meltzer e Auer al Rockefeller Institute nel 1909. Questi due fisiologi congegnarono uno strumento per la somministrazione dell’anestesia endotracheale che eliminava completamente il principio di inalazione riguardo al normale afflusso ed efflusso di aria. Questo manteneva la costante espansione dei polmoni attraverso flusso d’aria sotto pressione esterna. L’anestesia con insufflazione endotracheale nella chirurgia toracica suscitò l’interesse entusiastico di Charles A. Elsberg (1871-1948), un chirurgo di New York. La procedura si affermò principalmente grazie ai suoi sforzi.
Lo sviluppo della laringoscopia diretta fornì un altro strumento nell’uso routinario della tecnica di insufflazione. Sebbene introdotta da Alfred Kirstein nel 1895, essa si diffuse largamente solo dopo la comparsa della modifica di Chevalier Jackson nel 1913. Insieme all’introduzione ed al perfezionamento dei metodi di laringoscopia diretta, l’era dell’anestesia con insufflazione vide anche ulteriori progressi dell’intubazione endotracheale con i suoi vantaggi nel mantenere l’apertura delle vie aeree e la rimozione delle secrezioni. Le modificazioni delle tecniche di intubazione endotracheale permisero col tempo il ritorno al principio dell’inalazione.
La Prima Guerra Mondiale fornì una grande opportunità d’implementazione. Ivan Magill e Rowbotham furono i pionieri. Essi acquisirono un’estesa esperienza all’interno della British Army Plastic Unit, e riportarono i dettagli di tale esperienza nei Proceedings of The Royal Society of Medicine. Essi somministravano l’agente anestetico attraverso un tubo singolo endotracheale con ampio diametro che veniva collegato ad una macchina per anestesia semichiusa. Il lavoro di questi due uomini causò una radicale trasformazione nella metodologia dell’anestesia toracica che prevalse fino agli anni trenta del novecento. L’intubazione endotracheale inalatoria rimpiazzò gradualmente non solo la tecnica dell’insufflazione ma anche le ingombranti macchine a pressione differenziale introdotte da Sauerbruch. È comunque interessante notare che, nonostante tali progressi, la macchina di Sauerbruch era ancora ampiamente usata all’inizio della Seconda Guerra Mondiale.
Particolarmente importante fu l’impatto tremendo creato dall’introduzione di metodi per il monitoraggio e la gestione non solo della respirazione ma anche dell’attività cardiaca. I progressi iniziarono con l’introduzione delle macchine anestetiche a sistema chiuso che utilizzavano agenti assorbenti per l’anidride carbonica. La prima macchina di questo tipo utilizzava soluzioni con idrossido di sodio o potassio per l’assorbimento dell’anidride carbonica espirata. Tale strumento fu congegnato da Dennis Jackson, un farmacologo, che per primo ne descrisse l’uso su animali da esperimento nel 1915. L’applicazione clinica fu realizzata solo nel 1924 allorchè Waters introdusse una macchina basata sul principio “to and fro” che utilizzava soda calcica come assorbente dell’anidride carbonica. Tale macchina godette di un grande successo tra gli anestesisti e nel tempo andò incontro a numerose modificazioni.
Il primo articolo dedicato all’anestesia in ambito cardiaco fu quello di Merel Harmel ed Austin Lamont, entrambi della Johns Hopkins University. Questo fu pubblicato nel 1946 sotto il titolo “Anesthesia in the surgical treatment of congenital pulmonary stenosis”. Con il passare del tempo, e poco prima che si aprisse l’era della chirurgia a cuore aperto, divenne sempre maggiore la necessità per gli anestesisti di possedere un’adeguata conoscenza delle sfumature anestetiche riguardanti la chirurgia cardiaca. Si aprì la strada per una nuova sottospecializzazione, ma questo percorso fu completato solo nel 1967 allorchè Harry Wollman e Alan Ominsky si “autoproclamarono” anestesisti cardiaci. I cardiologi rimasero all’interno della sala operatoria fino a quando gli anestesisti non formarono le loro competenze sulla diagnosi e gestione delle aritmie cardiache durante le procedure chirurgiche.
Trasfusioni di Sangue
Insieme all’anestesia, la capacità di trasfondere sangue in modo sicuro costituì un altro elemento critico nell’evoluzione della chirurgia cardiaca. Si dovettero risolvere molti problemi prima che la trasfusione potesse diventare una pratica terapeutica semplice e relativamente sicura così come appare oggi. Tra questi problemi quelli più importanti furono la reazione alla trasfusione, il passaggio da una modalità di trasfusione diretta a quella indiretta, la prevenzione nella formazione di coaguli, lo sviluppo di tecniche per la raccolta e conservazione del sangue, ed in ultimo, ma non meno importante, la questione delle malattie trasmissibili. La risoluzione di tutti questi problemi fu una questione lunga ed ardua, che richiese lo sviluppo e la competenza di varie discipline.
Accenni alle trasfusioni sanguigne si possono trovare negli scritti dell’antichità. Risale all’estate del 1492 la prima trasfusione di sangue che la storia ricordi, data anche l’importanza del protagonista, il papa Innocenzo VIII. Lo storico Pasquale Villari racconta che questi, gravemente ammalato, ricevette il sangue da tre giovani scelti per l’occasione tra i più forti e pieni di vita. Il procedimento non ebbe successo e il papa morì il 25 luglio dello stesso anno. Il fatto interessante è che anche i tre giovani morirono in seguito alla donazione.
Il sangue animale veniva utilizzato spesso con reazioni fatali. La prima chiara descrizione dell’uso di sangue umano comparve nel 1615. Andreas Libavius (1555-1616) era l’autore di questo resoconto. Libavius riportò una testimonianza di trasfusione in “Appendix necessaria in defensione Syntagmatis arcano rum chimicorum”, nel capitolo “De magicis medicamenti et similibus”. Libavius giudicava scetticamente questa pratica, che descrisse peraltro molto accuratamente: si doveva infilare una cannula d’argento nell’arteria del donatore e un’altra nel malato; poi si collegavano le due cannule e quindi il sangue dell’individuo sano “pieno di sangue ardente” scorreva nel ricevente “portando vita e benessere”.
I primi tentativi di praticare un approccio disciplinato comparvero nel 1824 con la pubblicazione di un articolo da parte di James Blundell, un ostetrico londinese. Tale articolo descriveva 3 metodi per la trasfusione sanguigna utilizzati in 5 donne usando solo sangue umano. Questo fu il suo primo tentativo, e nonostante il fatto che egli avesse usato solo sangue umano tutte le donne morirono. Il meccanismo sottostante le reazioni fatali con sangue animale fu portato alla luce nel 1875. Questo fu il risultato delle ricerche fatte da due uomini che lavoravano in modo indipendente tra loro. I due uomini erano Emil Ponfick e Leonard Landois. Il loro lavoro pose fine all’uso del sangue animale ma non riuscì a dare una spiegazione sui meccanismi che determinavano il decesso in caso di trasfusione con sangue umano.
Chi riuscì a chiarirne i meccanismi fu Karl Landsteiner (1868-1943, un assistente dell’Istituto di Anatomia Patologica presso l’Università di Vienna. Nel suo articolo, “Ueber Agglutinationserscheinungen normalen menschlichen Blutes”, pubblicato nel 1901, egli riuscì a dimostrare che l’agglutinazione dei globuli rossi del sangue del donatore era responsabile delle manifestazioni cliniche nelle reazioni da trasfusione. Inoltre, il suo articolo, basato su uno studio su 22 soggetti, rivelò che l’agglutinazione era dovuta alla presenza di iso-agglutinine nel siero del ricevente. Egli descrisse tre tipi differenti di iso-agglutinine. Secondo la sua teoria queste formavano la base dei gruppi sanguigni, conosciuti all’inizio come “A”, “B” e “C”. In quel periodo venne aggiunto un nuovo gruppo sanguigno ai tre originari descritti da Landsteiner. Questo fu denominato “0” allorchè venne scoperto da Alfred von Decastello e Adriano Sturli (1873-1964) nel 1902.
Questo fu un successo rimarchevole, ma sfortunatamente, la sua potenzialità non fu del tutto apprezzata fino al 1907 allorchè Ludvig Hektoen (1863-1951), non enfatizzò l’importanza clinica dell’agglutinazione nel causare le reazioni da trasfusione. Il lavoro di Hektoen condusse John Funke del Jefferson Medical College Hospital ad utilizzare il fenomeno dell’iso-agglutinazione come base per i test di cross-agglutinazione mentre John Gibbon, un chirurgo di Filadelfia, seguendone il consiglio, iniziò a fare questi test prima di eseguire una trasfusione in modo da assicurarsi della compatibilità. Anche Reuben Ottenberg (1882-1959) descrisse nel 1911 il valore di questi test al fine di ridurre l’incidenza delle reazioni da trasfusione. L’evidenza statistica stabilì che la “tipizzazione e la compatibilità” dovessero essere dei requisiti essenziali nelle procedure di trasfusione sanguigna.
Inizialmente, le trasfusioni sanguigne venivano eseguite spillando il donatore e permettendo al sangue di passare direttamente nel circolo sanguigno del ricevente. Questa tecnica diretta veniva tormentata dalla frequente formazione di coaguli durante la procedura. Un importante progresso della tecnica fu fatto con l’introduzione dell’approccio artero-venoso di G. W. Crile nel 1907. Crile utilizzò il metodo di Carrel che consisteva nell’anastomizzare le terminazioni dei vasi sanguigni. La formazione di coaguli non avveniva, presumibilmente perché il sangue del donatore rimaneva sempre in contatto con l’endotelio dell’arteria periferica del donatore e con la vena anastomizzata del ricevente.
Comunque, i molti svantaggi della trasfusione diretta stimolarono la ricerca di metodi che assicurassero la raccolta sangue e la successiva trasfusione. Il primo passo in questa direzione fu l’uso del citrato per impedire la formazione di coaguli. Nel 1774, William Hewson aveva descritto l’uso di “sali neutri” come strumento per impedire la formazione di coaguli. Questa scoperta fu un reperto isolato, ed in realtà, non ebbe nessun impatto nello sviluppo di strumenti che impedissero tale fenomeno. Nel 1890, M. Arthus e C. Pagés furono i primi a riportare che l’ingrediente essenziale nell’inizio della coagulazione era il calcio. Essi scoprirono che, quando il citrato veniva aggiunto al donatore di sangue, esso impediva la coagulazione combinandosi con gli ioni calcio del sangue del donatore. Questa rimase per molti anni una tecnica di laboratorio prima di essere adottata dai clinici. L’uso clinico del citrato si determinò solo quando gli sforzi vennero esercitati verso l’implementazione della tecnica indiretta della trasfusione, che ovviamente necessitava di strumenti che garantissero la preservazione del sangue del donatore. Prima che il sangue citratato potesse essere utilizzato nell’uomo bisognava risolvere la questione se questo avesse una potenzialità tossica. Il belga A. Hustin fornì la risposta allorchè riportò nel 1914 che gli negli animali una piccola quantità di citrato, utilizzato per impedire la formazione di coaguli, non era tossico e che, in aggiunta, questo non abbassava il livello del calcio sanguigno.
All’interno di questi limiti, la trasfusione indiretta con sangue citratato mostrò il suo eccezionale valore nel corso della Prima Guerra Mondiale. Weil fu il primo a dimostrare che il sangue contenente il sodio citrato isotonico aveva una durata media di vita di soli 3,5 giorni. Questo tempo fu allungato a delle settimane attraverso l’aggiunta di destrosio. Peyton Rous e J. R. Turner furono i responsabili della scoperta. La prima applicazione in larga scala del sangue conservato con il metodo di Rous e Turner avvenne nella parte terminale della Prima Guerra Mondiale. Oswald Robertson riportò ciò nel 1918. Egli usava sangue del gruppo “0” conservato con soluzione isotonica contenente citrato-destrosio e immagazzinata sotto refrigerazione.
I ricercatori russi dominarono il campo della trasfusione sanguigna nel corso di tutti gli anni trenta del novecento. Centri per la trasfusione sanguigna sorsero in molte città della Russia. Un’estesa esperienza fu acquisita anche con l’uso di sangue prelevato da donatori vivi. Nel 1936, Bagdassarov, di Mosca, descrisse la sua esperienza con oltre 6000 trasfusioni di sangue umano immagazzinato. La guerra civile spagnola fornì un’altra opportunità per dimostrare il valore e la sicurezza del sangue umano conservato. Nel 1936, F. Duran Jorda formò un servizio trasfusionale per l’armata spagnola repubblicana. Questo fu uno sforzo massivo che operava all’interno della città di Barcellona. Contemporaneamente fu costituito un altro centro trasfusionale a Madrid. Questi due centri erano in realtà delle banche del sangue che contenevano un pool di sangue proveniente da migliaia di donatori e immagazzinato in condizioni rigidamente controllate soprattutto riguardo alle malattie trasmissibili, specialmente la sifilide.
Il termine “banca del sangue” fu coniato da Bernard Fantus allorchè egli costituì il primo deposito per la conservazione del sangue al Cook County Hospital.
B) CHIRURGIA INTRACARDIACA ALLA CIECA
In questo paragrafo verranno ricollegati tra loro gli “highlight” storici di quell’epoca della chirurgia cardiaca caratterizzata da Harken come l’era della chirurgia intracardiaca alla cieca. Nei fatti, questa ebbe inizio con lo stesso Dwight Harken che indicò la via con la sua rimozione con successo di corpi estranei seguita dalla chirurgia delle valvole cardiache e di certi difetti congeniti. Egli afferrò l’occasione mentre faceva parte dei corpi medici della United States Army. Egli eseguì 134 interventi in cui rimosse corpi estranei, per lo più frammenti di proiettili, dalla camere cardiache, dalle pareti vasali o dalle strutture annesse. Fu questa esperienza militare che stimolò in Harken un grande interesse verso la chirurgia cardiaca, e che, subito dopo la fine della guerra, divenne il centro della sua carriera. Questo importante capitolo nella storia della chirurgia cardiaca è raccontato in modo vivo nel seguente passo di Johnson:
“Harken usò gli ultimi ritrovati delle tecniche chirurgiche per la rimozione dei proiettili. Prima dell’operazione, la posizione del proiettile veniva individuata al fluoroscopio. L’anestesia era indotta con pentotal sodico per via intravenosa, il paziente veniva intubato con un tubo endotracheale, e l’anestesia veniva mantenuta con ossido d’azoto, etere, ossigeno e respirazione assistita. Per rimuovere il proiettile, il cuore veniva spesso aperto in modo ampio e con una tremenda perdita di sangue. Erano necessarie rapide e massive trasfusioni di sangue per mantenere il paziente in vita. Veniva spesso somministrato sangue intero, a pressione, fino ad 1 litro e ½ per minuto. La penicillina, che iniziava ad avere un impatto sulla chirurgia toracica, veniva spesso somministrata con iniezioni alla dose di 10.000 unità, per via intramuscolare o all’interno del sacco pleurico o pericardico.”
Finita la guerra, Harken rivolse nuovamente la sua attenzione alle lesioni valvolari.
Comunque, Harken non fu il primo ad interessarsi alla riparazione chirurgica delle lesioni valvolari. Nel 1913 Doyen eseguì la riparazione di una lesione stenotica nell’area polmonare. Stranamente, uno dei primi ricercatori sperimentali fu Harvey Cushing, il famoso neurochirurgo di Boston. Sebbene il suo lavoro fosse ristretto a qualche tentativo infruttuoso di creare la stenosi mitralica nei cani, egli sostenne Elliott Cutler, che a quel tempo era un giovane aspirante chirurgo. Cutler eseguì il primo trial clinico di valvulotomia mitralica mentre lavorava nel dipartimento di Cushing. Nel 1923 Cutler eseguì il primo intervento riparativo di successo della valvola mitralica: il paziente aveva 12 anni, soffriva di stenosi valvolare di origine reumatica e venne sottoposto a riparazione della valvola. Cutler presentò il valvulotomo utilizzato nella sua procedura al suo allievo, Harken, che, a sua volta, lo utilizzò molte volte per resecare le lesioni stenotiche della valvola polmonare. Ma la tecnica aveva una percentuale di insuccesso del 90% e venne abbandonata da Cutler nel 1928. Nel 1925, Henry Souttar, di Londra, usò per la prima volta un approccio transatriale per fratturare la valvola stenotica con il suo dito. La paziente, una ragazza di diciannove anni, sopravvisse, e perciò il suo tentativo rappresenta la prima commissurotomia digitale di successo per il trattamento della stenosi mitralica. L’operazione fu il primo ed unico tentativo praticato da Souttar.
Dovettero passare almeno due decadi dallo scoraggiante report di Cutler e Beck prima che si potesse assistere ad una ripresa di interesse verso la chirurgia valvolare. L’interesse di Murray verso la chirurgia vascolare iniziò subito dopo che vennero pubblicizzati gli sforzi del gruppo di Boston. Per il 1938 egli aveva sviluppato una tecnica sperimentale negli animali simile a quella di Cutler, con la differenza che egli cercava di impedire lo sviluppo dell’insufficienza mitralica acuta. Anche Murray inseriva il valvulotomo attraverso la parete ventricolare. Il rigurgito veniva controllato con l’aiuto di un graft venoso foderato con il tendine “palmaris longus”.
Il primo tentativo clinico di Charles Philamore Bailey (1910-1993) avvenne nel 1945. Sfortunatamente, l’atrio sinistro fu strappato durante l’intervento, ed il paziente morì per un’emorragia incontrollabile. Nel suo secondo tentativo, un anno dopo, il paziente divenne marcatamente ipoteso prima che egli potesse posizionare il valvulotomo. Egli rimosse immediatamente lo strumento e nel frattempo inserì il suo dito. Trenta ore dopo anche questo paziente morì. All’autopsia, si scoprirono che i margini commisurali lacerati si erano riagglutinati. Nonostante la morte del paziente, questo secondo tentativo fu cruciale per Bailey in quanto sorse nella sua mente la convinzione che la commissurotomia era una procedura adeguata dal punto di vista fisiologico. Egli venne anche definito il “macellaio” del Hahnemann Hospital. Bailey dovette aspettare fino al 1948 prima che la fortuna girasse in suo favore. Il 10 giugno di quell’anno egli eseguì la sua prima valvulotomia di successo. L’operazione fu eseguita al Philadelphia’s Episcopal Hospital. In quella struttura Bailey non ricopriva nessun incarico di tipo chirurgico. Per il 1950 Bailey aveva riportato 10 dilatazioni mitraliche transatriali o commissurotomie con una percentuale di mortalità del 50%. Il “macellaio” del Hahnemann era diventato il redentore; il sognatore era diventato il vincitore. Nel breve periodo di otto anni, egli ed il suo gruppo eseguirono migliaia di queste procedure. Miglioramenti furono notati nel 89,9% dei casi con una mortalità operatoria del 7,9% ed una mortalità postoperatoria del 5,6%.
In laboratorio, Harken scoprì che il lembo valvolare anteriore della mitrale non doveva essere inciso o parzialmente escisso; far ciò avrebbe causato un rigurgito letale. Invece un danno sul lembo valvolare posteriore era meglio tollerato. Consapevole del rischio di creare una marcata falla, Harken ed il suo gruppo formularono il concetto di “insufficienza selettiva”. Ciò implicava un certo grado di insufficienza necessaria. Sulla base di tale concetto, essi eseguivano con il valvulotomo resezioni a forma di cuneo sulle commissure fuse. Questo è il motivo per cui essi definirono la loro procedura valvuloplastica e non commissurotomia. Anche Harken predilesse l’approccio transatriale che Bailey aveva esposto. Dopo 12 anni di esperienza in 1571 pazienti, Ellis ed Harken riportarono i risultati a breve e lungo termine della loro “valvuloplastica alla cieca” sulNew England Journal of Medicine (1964).
Secondo Harken, fu O’Shaughnessy colui che per primo suggerì la chirurgia per la correzione della stenosi polmonare. O’Shaughnessy propose tale procedura come parte di una “Hunterian lecture”. Egli non la praticò mai; venne ucciso durante l’evacuazione di Dunkirk nel 1940.
Nel 1953, Charles Dubost (1914-1991), di Parigi, iniziò ad usare il dilatatore transatriale. Per il 1962 egli riuscì a riportare una rimarchevole bassa mortalità del solo 2% in una serie di 1000 casi. Nonostante ciò, questa tecnica non divenne popolare. Egli utilizzava il dilatatore aortico di Brock per l’allargare l’orifizio valvolare mitralico. Tale strumento veniva inserito attraverso una piccola incisione vicino all’apice del ventricolo sinistro. Esso venne in seguito modificato da Tubbs. Il dilatatore di Brock si poteva espandere di soli 3,3 cm. Tubbs lo modificò con uno strumento in grado di espandersi di 4,5 cm in un modo più accurato attraverso una vite. Anche Logan adottò la modifica di Tubbs, ed i due riuscirono in seguito ad impressionare la maggior parte dei chirurghi britannici. Egli descrisse nel 1962 l’esperienza di Tubbs in una serie di 124 pazienti.
Il notevole successo raggiunto con tecniche alla cieca della chirurgia valvolare mitralica non valse anche per le altre valvole. La stenosi aortica, in particolare, dimostrò di essere un problema insormontabile. La manipolazione alla cieca sotto guida digitale non fu la giusta risposta a riguardo. La valvulotomia sperimentale della valvola aortica era già stata tentata da Becker nel 1872 e successivamente da Klebs. Appena nel 1912, Jeger tentò di fare una protesi valvolare aortica suturando un graft di vena giugulare tra l’arteria innominata ed il ventricolo sinistro. Brock tentò di mitigare la stenosi aortica con un dilatatore meccanico che, come abbiamo visto, ebbe un maggior grado di applicazione nella stenosi mitralica. Negli anni cinquanta del novecento, Glenn ed il suo gruppo ad Yale riportarono una tecnica che utilizzava il dito o uno strumento inserito attraverso un diverticolo fatto con tessuto suturato nella valvola aortica.
In contrasto agli approcci aggressivi per le stenosi mitraliche, lo sviluppo delle tecniche chirurgiche per la correzione dell’insufficienza mitralica non evolse in modo soddisfacente fino all’avvento della chirurgia a cuore aperto. Inizialmente, ci fu uno scarso interesse a causa dell’errata credenza secondo la quale l’insufficienza mitralica non era una lesione seria ed era meglio tollerata dal cuore. Con il tempo, divenne evidente che il rigurgito mitralico aveva un’eziologia multifattoriale e che alcune condizioni non si prestavano alla correzione con una tecnica alla cieca. A parte gli sforzi di Carrel nel 1910, non venne riportato nessun serio studio sperimentale fino al 1930, anno in cui Carrel pubblicò il suo articolo sulla chirurgia sperimentale dell’aorta toracica e del cuore. Egli scrisse di aver cercato di sviluppare un’operazione per l’insufficienza mitralica che potesse essere eseguita senza aprire il cuore. L’uso di tessuto autogeno fu dunque adottato dai ricercatori per qualche anno come strumento per ridurre le dimensioni dell’orifizio. Murray, Wilkinson e Mackenzie usarono una vena autogena rovesciata come una fionda subvalvolare. Durante la sistole, questa poteva essere gonfiata verso l’alto per occludere l’orifizio mitralico. Templeton e Gibbon testarono il pericardio per fare la fionda. Invece, nel 1954, Botwin provò dei flap atriali peduncolati. Con il tempo divenne sempre più evidente che le tecniche alla cieca, a prescindere dalla loro ingegnosità, non potessero essere la risposta.
Un campo senza sangue nella la chirurgia a cuore aperto era il solo approccio soddisfacente, e a questo scopo fu necessaria l’introduzione della circolazione extracorporea ipotermica e della macchina cuore-polmone. L’evoluzione finale di queste tre componenti aprirono le porte alla terza epoca di Harken – l’era della chirurgia a cuore aperto.
C) CHIRURGIA A CUORE APERTO
I ricercatori si sono interessati all’ibernazione con la sua marcata riduzione della temperatura corporea già da almeno due secoli. Ma i primi ricercatori non pensavano alla possibile applicazione sull’uomo. Nel 1797 vennero pubblicati due libri dal dr James Currie, di Liverpool, in cui egli descriveva bagni in acqua fredda come rimedio per la febbre, le convulsioni e la pazzia. Questa sembra essere stata la prima volta in cui l’ipotermia venne usata in ambito clinico.
Wilfred Gordon Bigelow (1913-2005), chirurgo dell’Università di Toronto, per primo si interessò all’ipotermia generalizzata per la visione intracardiaca diretta nell’intervento chirurgico negli anni quaranta del novecento. Una semplice ma importante scoperta fu riportata da lui ed i suoi associati durante le fasi iniziali dei loro esperimenti. Essi scoprirono che se eliminavano il tremore ed aumentavano il tono muscolare causato dal freddo con attenta anestesia, le richieste di ossigeno da parte del corpo si riducevano in modo quasi lineare con il ridursi della temperatura corporea. Essi continuarono a lavorare e, dopo tre anni di esperimenti, definirono le risposte fisiologiche di base all’ipotermia. Era questo il tempo di testare la teoria del cuore aperto. Ciò accadde nel 1949, ed il soggetto era un cane la cui temperatura corporea fu abbassata a 20°. La circolazione venne interrotta posizionando clampaggi sulle vene cave superiore ed inferiore. Il cuore iniziò a battere molto lentamente e, non appena apparve vuoto e senza sangue, venne aperto. La circolazione fu stoppata in questa maniera per 15 minuti. Il cane sopravvisse alla procedura confermando in pieno la tesi che l’ipotermia poteva essere uno strumento efficace nella chirurgia a cuore aperto e con un campo senza sangue. L’esperimento fu tentato e ritentato in una serie di 39 animali in tutto. Questa procedura mostrò un alto rischio operatorio e la percentuale di sopravvivenza fu del 51%. Ciononostante, quando le osservazioni furono riportate al meeting dell’American Surgical Association, a Colorado Springs nel 1950, esse crearono un certo subbuglio che agì da stimolo per altre ricerche sull’ipotermia nel resto del mondo. Furono necessari al suo team altri cinque anni per eliminare alcune insidie tecniche e per incrementare la sicurezza in modo tale da rendere disponibile la procedura nella chirurgia umana a cuore aperto. Le restrizioni di tempo limitavano la loro scelta dei candidati a bambini con semplici difetti atriali o stenosi polmonare. Queste lesioni potevano essere corrette chirurgicamente in 8-10 minuti mantenendo una temperatura corporea di 28-30° e stoppando la circolazione con il cuore aperto. Dal momento che loro lavoravano in un ospedale per adulti, il riferimento pediatrico non era disponibile. Questo fu un impedimento che essi non poterono superare e, nonostante la loro innovazione, essi furono privati della soddisfazione di essere i primi ad applicare la tecnica dell’ipotermia a cuore aperto nell’uomo. John Lewis, di Minneapolis, “li batté per caso”. Egli fu il primo a riportare la chiusura di successo in un difetto del setto atriale. Ciò accadeva nel 1953. Il paziente era una bambina di cinque anni con un importante difetto del setto atriale. Il difetto fu richiuso sotto visione diretta. Il campo operatorio era asciutto essendo stato reso tale occludendo la vena cava per i 5 minuti e mezzo necessari per la riparazione del difetto. Non ci furono complicanze e la paziente trascorse una convalescenza tranquilla.
Il professor Donald Ross di Londra caratterizzò la decade tra la metà degli anni cinquanta e la metà degli anni sessanta del XX secolo, “la prima età del ghiaccio”. In questo periodo egli fu un punto di riferimento per la letteratura chirurgica che riportò i risultati della ricerca applicata all’ipotermia. A differenza dei difetti semplici, la correzione chirurgica delle lesioni complicate necessitava della macchina cuore-polmone mentre l’ipotermia forniva una protezione aggiuntiva per gli organi vitali. Alcuni chirurghi iniziarono a praticare la tecnica del cosiddetto “ice-chip arrest”. Questa era possibile mettendo il cuore nel ghiaccio mentre il paziente veniva sottoposto a bypass cardiopolmonare, stoppando così il battito cardiaco. In seguito essa venne abbandonata.
Denton Cooley iniziò a riportare il suo successo con la tecnica dell’arresto anossico. La temperatura corporea normale ed il bypass cardiaco costituivano gli elementi di tale approccio. Questa metodica divenne talmente popolare che, alla fine degli anni sessanta del novecento, l’ipotermia era relegata ad un ruolo secondario. Comunque, negli anni settanta, la morte per necrosi subendocardica e successivamente per fibrosi muscolare, determinò un revival dell’ipotermia.
La macchina cuore-polmone
Quando John Heysham Gibbon (1903-1973) richiuse con successo un difetto settale in una ragazza diciottenne, il 6 Maggio 1953, usando la sua macchina cuore-polmone che era stata sviluppata con il supporto della IBM Corporation, venne assicurata la fattibilità della chirurgia a cuore aperto come tecnica terapeutica. Durante l’intervento, tutte le funzioni cardiopolmonari erano state mantenute con l’apparecchio per 26 minuti, mentre il grosso difetto del setto atriale veniva richiuso attraverso sutura continua fatta con filo di seta. La convalescenza della paziente fu tranquilla, il soffio scomparve dopo l’operazione e la cateterizzazione cardiaca eseguita nel luglio del 1953 mostrò che il difetto era completamente chiuso senza nessuna evidenza di shunt da destra a sinistra.
Ma il concetto del bypass cardiopolmonare venne promulgato per la prima volta da Cesar Julian La Gallois nel 1812. Egli scrisse:
“Se si potesse sostituire il cuore con delle iniezioni, e se con una regolare continuità di tali iniezioni si potesse fornire una certa quantità di sangue arterioso, sia naturale che artificiale, supponendo possibile tale funzione, si potrebbe mantenere viva ogni parte del corpo per il maggior tempo possibile”.
La Gallois riuscì a mantenere in vita per un certo periodo i suoi conigli decapitati attraverso il suo metodo iniettivo.
La formazione di coaguli impediva il prolungato uso di questa tecnica. Nel 1821 Prévoste Dumas dimostrarono che la formazione di coaguli poteva essere evitata defibrinando il sangue, cosa che accrebbe la probabilità di confermare i tentativi di La Gallois. Ciò avvenne solo nel 1849, anno in cui Loebell riuscì ad eseguire un’isolata perfusione renale con sangue defibrinato.
L’ossigenazione sanguigna artificiale fu resa possibile per la prima volta nel 1869, allorchè Ludwig e Schmidt agitarono il sangue in un pallone contenente aria durante circolazione extracorporea. Von Schroder sembra essere stato colui che per primo, nel 1882, congegnò il primo vero polmone artificiale. Il suo metodo di ossigenazione consisteva nell’introdurre aria direttamente in una contenitore venoso. Il sangue ossigenato veniva dunque forzato ad entrare nel “contenitore arterioso” per il maggiore gradiente di pressione d’aria all’interno del contenitore venoso. La pressione idrostatica serviva a spingere il sangue dal contenitore arterioso verso l’organo isolato attraverso una via di perfusione. Clark ed il suo gruppo introdussero ulteriori migliorie nella tecnica dell’ossigenazione a bolle disperdendo l’ossigeno attraverso un filtro sintetico in vetro.
La prima membrana ossigenatrice fu sviluppata da von Frey e Gruber nel 1885. Il congegno di Hooker fu il precursore del moderno disco ossigenatore. Questo era un disco di gomma fatto per ruotare in una sorta di campana rovesciata riempita d’aria. Il sangue veniva fatto ossigenare scorrendo su questo disco rotante. Bayliss raffinò la tecnica nel 1928 usando una colonna di coni che ruotava su un’asse verticale all’interno di una serie di piatti fissi. Un’altra miglioria fu la modificazione del congegno a disco di Hooker attraverso l’uso di tre ossigenatori disposti concentricamente. Questa fu un’invenzione di Daly e Thorpe e fu concepita principalmente per permettere la perfusione nei preparati di cuori di mammiferi per un prolungato periodo di tempo. Bjork descrisse il moderno disco ossigenatore rotante nel suo celebre articolo sulla perfusione cerebrale. La membrana ossigenatrice congegnata da Jongbloed consisteva in una serie di spire rotanti disposte in parallelo. Questa era in grado di supportare la circolazione e la respirazione nei cani per più di quattro ore. Egli la descrisse nel 1949.
La pompa a perfusione di Carrel e Lindbergh differiva in quanto spingeva il fluido da un contenitore verso l’organo isolato attraverso una pressione gassosa pulsatile. La pompa era costruita in pirex. Essa venne descritta nel 1935. Quando Gibbon mantenne per la prima volta la circolazione durante un esperimento di occlusione dell’arteria polmonare, usò una pompa ossigenatrice. Dogliotti e Costantini furono i primi ad usare una pompa ossigenatrice nell’uomo. Ciò accadeva nel 1951 a Torino. Essi la utilizzarono per bypassare parzialmente la parte destra del cuore durante la rimozione di un tumore mediastinico. Il loro ossigenatore era simile a quello congegnato da Clark un anno prima. Il bypassaggio del cuore destro non era un approccio nuovo. Questa tecnica fu praticata per la prima volta da Sewell e William Glenn della Yale University. Il loro sistema creava uno shunt tra il sangue venoso e l’arteria polmonare saltando il cuore destro. Glenn racconta che il loro sistema costò meno di 25 dollari americani.
Nel corso di tutto questo periodo, un metodo ingegnoso di ossigenazione veniva esplorato da un team della University of Minnesota. Questo era un gruppo di giovani, brillanti e entusiasti chirurghi interni, con un altrettanto giovane staff, che lavorava sotto la guida di Owen H. Wangensteen (1898-1981). C. W. Lillehei ce lo descrive come un “chirurgo visionario che creò un ambiente favorevole e libero dagli orpelli della tradizione”.
“Sperimenta! E ragiona!”.
Questo era il motto che Wangensteen rivolgeva al suo staff. Il gruppo di giovani includeva Lillehei, Dennis, Cohen, Warden e De Wall. Il metodo ingegnoso che era stato esplorato si basava sul concetto dell’ossigenazione biologica. Blum e Megibow, nel 1950, svilupparono questa idea secondo la quale il cuore del cane veniva escluso dalla circolazione attraverso un processo definito “parabiosi”.
Fu Morley Cohen (1923-2005) a proporre per la prima volta di usare un donatore umano come ossigenatore biologico. Cohen e Warden, durante il periodo della specializzazione, ripeterono la procedura correggendo gli errori e raffinando la tecnica negli animali fino a quando, nel 1954, non si sentirono pronti per raccomandarla come uno strumento clinico. Il primo tentativo con “cross circulation” (così venne chiamato il metodo) fu praticato su un bambino affetto da insufficienza cardiaca intrattabile dovuta a difetto settale ventricolare. Il padre del bambino era il donatore. Il paziente sopravvisse all’intervento ma morì undici giorni dopo a causa di una polmonite. Anche il secondo paziente aveva un difetto settale ventricolare, ed anche in questo caso il donatore era il padre. Il paziente sopravvisse nonostante il totale blocco del flusso cardiaco per 26 minuti e mezzo. I dettagli della tecnica sono affascinanti. Sia il donatore che il paziente venivano anestetizzati ed eparinizzati. L’aorta del paziente veniva incannulata e collegata attraverso un tubo ad una cannula inserita nell’arteria femorale superficiale del donatore. Questo era il tratto arterioso. Il tratto venoso veniva organizzato nello stesso modo con le vene cave del ricevente collegate alla vena femorale superficiale del donatore. Una pompa veniva utilizzata per entrambi i tratti e la sua velocità era programmata in maniera tale che il flusso di sangue corrispondesse a meno del 50% della normale gittata cardiaca. Un clamp opportunamente posizionato sulla vena cava del paziente impediva al suo sangue di entrare nel cuore e creava un campo asciutto adatto all’intervento. All’inizio del 1955 il team aveva già raggiunto un considerevole successo su 45 pazienti, riportatone i risultati del lavoro su Surgery e International Symposium of Cardiovascular Surgery. Non ci fu nessuna mortalità fra i donatori anche se si diceva ironicamente che poteva raggiungere una probabilità di insuccesso del 200%.
Nonostante il successo iniziale di Gibbon nel 1953, il pessimismo concernente il futuro della macchina cuore-polmone continuò per tutta la prima metà degli anni cinquanta. Tale pessimismo fu ulteriormente accresciuto dallo stesso Gibbon che si scoraggiò per la sua temporanea incapacità di ripetere il successo sul setto atriale con i più complessi difetti ventricolari. L’iniziale effetto di scoramento era stato creato da Clarence Dennis, anche lui parte dell’intraprendente gruppo della Minnesota. Ciò accadeva nel 1951, due anni prima del fortunato tentativo di Gibbon. Il sistema di Dennis era costituito da uno schermo di Gibbon, dischi ossigenatore di Bjork e dalla pompa di Dale-Schuster. Dennis non ebbe successo nei suoi primi due tentativi, eseguiti ad un mese di distanza l’uno dall’altro. Questi furono percepiti come dei disastri.
Nonostante questa atmosfera malinconica, gli sforzi per perfezionare la macchina cuore-polmone continuarono incessanti. Furono parte di tale avventura sia ricercatori europei che americani. Tra costoro vi erano non solo Gibbon, ma anche il gruppo di Lillehei, Bjork a Stoccolma, Melrose a Londra, ed il gruppo di Kirklin.
Il gruppo di Lillehei credeva che il problema non giacesse nel concetto in sè, ma piuttosto nella complessità tecnica, e riteneva che, riducendone i termini, si sarebbero potute evitare molte complicazioni con una marcata riduzione della mortalità.
Il congegno di Bjork era costituito da dischi rotanti in acciaio inossidabile posti in un bagno di sangue.
La macchina congegnata da Melrose fu un perfezionamento del congegno di Bjork. L’efficienza veniva aumentata facendo ruotare un tamburo inclinato attraverso il quale il sangue scorreva lentamente per gravità in una serie di dischi cosicché il sangue passava da un disco all’altro in modo tale da assorbire una porzione sempre maggiore di ossigeno. Melrose condusse i suoi esperimenti animali alla Royal Veterinary College. Nel 1953 egli ed il suo team credevano di essere pronti per il loro primo soggetto umano. Rose Pilgrim, che aveva una severa malattia delle valvole aortica e mitrale, si sottopose ad una doppia valvulotomia a cuore chiuso con la macchina per bypass che agiva semplicemente da supporto.
John Webster Kirklin (1917-2004) ed il suo gruppo della Mayo Clinic modificarono la macchina che Gibbon aveva sviluppato in collaborazione con la IBM. Sebbene il gruppo di Kirklin avesse una mortalità del 50% nella loro serie di 38 pazienti, le loro osservazioni piuttosto che i loro risultati diedero coraggio ai fautori della macchina cuore-polmone.
Nel 1950 Leland Clark, Frank Gollan e Vishiva Gupta congegnarono un ossigenatore a bolle consistente in un gorgogliatore, un deschiumatore ed una camera per fissare l’ossigeno. Questa era fatta inizialmente di vetro ed in seguito di pirex. L’elemento cruciale della progettazione era una resina in silicone che veniva usata per rivestire la superficie interna di tutte le parti in vetro. Questa era molto efficace nel rimuovere le bolle di gas e perciò nell’eliminare una potenziale fonte di embolie gassose. James Helmsworth fu il primo ad usare tale assemblaggio in un umano. Nel corso degli anni cinquanta vi era un generale consenso riguardo alla credenza che il sangue circolante attraverso la macchina cuore-polmone non dovesse entrare in contatto con l’aria ambiente. Ciò condusse alla sviluppo degli ossigenatori a membrana. La membrana era una lamina in plastica sottile che separava il sangue dall’aria ma permetteva la diffusione dei gas. Kolff utilizzò questo congegno per la prima volta nel suo rene artificiale. L’equipaggiamento attualmente usato per la perfusione è molto più semplice ed affidabile di quelli del passato. Questo può ossigenare a percentuali di perfusione molto più alte. Gollan e Neptune introdussero il concetto dell’emodiluizione in modo tale da consentire in modo ancora più sicuro la perfusione di tutto il corpo. L’ultima decade del XX secolo ha beneficiato degli sforzi di tante persone. La circolazione extracorporea ha permesso ai cardiochirurghi di eseguire interventi che hanno quasi del miracoloso.
Chirurgia valvolare sotto visione diretta
L’affidabilità e l’efficacia della macchina cuore-polmone con la possibilità di eseguire complesse procedure chirurgiche sotto visione diretta e senza fretta ha posto le basi per la crescita esplosiva della chirurgia cardiaca fisiologica. La chirurgia a cuore aperto, all’inizio, fu utilizzata soprattutto per la gestione delle lesioni congenite, specialmente i difetti settali e la stenosi polmonari. Fu l’esperienza acquisita con queste lesioni che permise ai chirurghi di tentare l’intervento nelle valvulopatie acquisite. Le prime tecniche nella chirurgia valvolare a cuore aperto furono le procedure ricostruttive dal momento che le protesi valvolari, sia meccaniche che biologiche, non erano state ancora introdotte.
La priorità per il primo intervento di successo nell’insufficienza mitralica acquisita va probabilmente assegnata a C. Walton Lillehei ed il suo gruppo. L’operazione fu eseguita alla University of Minnesota il 29agosto 1956. La lesione era un’insufficienza mitralica pura e venne corretta con la plicatura per sutura delle commissure valvolari sotto visione diretta.
L’incremento della superficie del lembo valvolare mitralico fu un altro metodo per restituire competenza alla valvolare. Spencer ed i gruppi guidati da King e Johnson sperimentarono pezze di teflon e nylon, mentre Sauvage ed associati attaccarono tessuto pericardico autogeno. La plicatura del lembo valvolare insieme all’annuloplastica posteromediale fu introdotta nel 1960 dal gruppo della Mayo Clinic sotto la direzione di Dwight McGoon. Nelle mani di Merendino, Kay e Wooler, l’annuloplastica posteromediale produsse il maggior numero di miglioramenti sul lungo periodo. Carpentier introdusse nel 1971 l’annuloplastica con anello protesico. Egli introdusse anche una tecnica variante con resezione del lembo valvolare e cordoplastica. Entrambe le tecniche di Carpentier acquisirono un generale consenso in tutto il mondo. Per il 1980 almeno 2000 pazienti furono sottoposti alle sue procedure. Alla fine degli anni settanta, Duran sviluppò un anello flessibile al posto di quello rigido di Carpentier.
Durante questa fase ricostruttiva della riparazione sotto visione diretta si incontrarono molti insuccessi; abbastanza da rendere consapevoli molti chirurghi della necessità di un nuovo approccio, e cioè la sostituzione valvolare. Inizialmente, furono utilizzati per la sostituzione parziale gli elementi plastici. Gott e collaboratori, al Minnesota, furono i primi a usare con successo un cilindro di ivalon compresso da suturare alla superficie inferiore del bordo del lembo valvolare posteriore mitralico. Barnard e Schire usarono la stessa tecnica ma la loro protesi in ivalon fu conformata a forma di manubrio. La sostituzione protesica completa ebbe un inizio molto difficile. Gli approcci sperimentali furono costellati di tanti problemi, sia tecnici che biologici, al punto da far apparire remota ed improbabile l’implementazione clinica. La trombosi, la durabilità, la difficoltà nella fissazione e l’invasione delle camere cardiache furono dei problemi che si dovettero affrontare. Alcune valvole furono progettate principalmente per l’inserimento nell’area mitralica mentre altre vennero utilizzate sia per la sostituzione valvolare mitralica che aortica.
Il maggior progresso nel campo delle valvole meccaniche fu la protesi a palla introdotta da Albert Starr della University of Oregon Medical School. La valvola venne progettata in collaborazione con Lowell Edwards, che era un ingegnere elettrico in pensione quando iniziò a lavorare con Starr. Inizialmente, il loro scopo era quello di costruire un cuore artificiale ma tale progetto era troppo ambizioso per quel tempo e così essi rividero i loro obiettivi in favore di una protesi valvolare cardiaca. Il modello iniziale fu inteso per la sostituzione della valvola mitralica. In seguito, venne sviluppato un modello aortico con tre montanti che, dopo qualche modifica, fu introdotto sul mercato, nel 1968, come modello 1260.
Il gruppo universitario di Città del Capo, guidato da Christian Barnard, progettò una valvola lentiforme. Il modello originale era una protesi lenticolare in silastic sospesa su un fuso intorno ad un anello in acciaio inossidabile rivestito con teflon ed attaccato all’anulus mitralico attraverso un anello di spugna polivinilica.
Nel corso di questo periodo anche la chirurgia della valvola aortica fece passi in avanti.Le protesi valvolari aortiche entrarono in uso nella metà degli anni cinquanta dopo la dimostrazione del 1951 fatta da Hufnagel, il quale mostrò come fosse possibile ottenere un parziale controllo dell’insufficienza aortica posizionando un congegno a palla sull’aorta discendente. L’avvento del bypass cardiopolmonare rese possibile la sostituzione valvolare aortica in posizione subcoronarica, e ciò accadde nel 1961 allorchè Starr suggerì per primo la possibilità di inserire in tale posizione la sua protesi valvolare mitralica modificata. Proprio un anno prima, Harken aveva dimostrato che era fattibile l’inserire valvole con palla ingabbiata in posizione subcoronarica. Egli l’utilizzò con successo nel 1960 e due pazienti sopravvissero per più di una decade. Incidentalmente, come Starr, anche Harken aveva con lui un ingegnere capace. Egli si chiamava W. Clifford Birtwell. La valvola con palla ingabbiata di Hufnagel non fu un’idea nuova. Nel 1858 venne consegnato al newyorchese J. B. Williams un brevetto di uno stopper per bottiglie che aveva lo stesso design.
Il modello aortico originario di Starr aveva due principali inconvenienti. Il sangue tendeva a coagulare sull’apice del montante e laddove i montanti si collegavano all’orifizio dell’acciaio inossidabile. La palla in silastic aveva la tendenza ad assorbire i lipidi del sangue e cosi tendeva a gonfiarsi e rompersi. Il problema della mutevolezza della palla venne risolto, ma il tromboembolismo rimase un’importante complicanza nonostante la deposizione di tessuto endoteliale liscio sul resto della valvola esposta al circolo sanguigno. Ironicamente, il tessuto fibroso sotto lo strato endoteliale creava nuovi problemi. Il montante diventava più spesso mentre il tessuto fibroso cresceva intorno ad esso. Ciò rendeva più difficoltoso il movimento libero della palla. La St Jude Medical Inc.introdusse una valvola in carbone pirolitico con due lembi valvolari. i due bloccanti in pirolite erano fissati su cardini ed avevano una forma semicircolare. Il maggior vantaggio di questo design era che, in posizione di apertura, la valvola forniva un minimo disturbo al flusso. La valutazione clinica di Emery, pubblicata nel 1979, pronosticò il successo di questa valvola. Il rischio di trombosi da valvola meccanica conduce alla necessità per il paziente di assumere una continua terapia anticoagulante. Un altro svantaggio è la minore funzione emodinamica, a prescindere dal tipo di valvola meccanica. Nel tentativo di superare tali svantaggi, i successivi sforzi furono indirizzati alla ricerca del tessuto valvolare ideale.
Ci sono stati vari stadi nell’evoluzione di queste bioprotesi. Le valvole aortiche rimosse dai cadaveri furono le prime ad essere testate. Donald Ross diede inizio a tale approccio nel 1962. Anche se, nel 1980, Wain riportò soddisfacenti risultati a lungo termine con tali valvole, il potenziale danno a lungo termine è ancora presente dal momento che questi allograft cadaverici derivano da corpi morti che perciò sono incapaci di combattere ogni danno con la rigenerazione cellulare. Ross era cosciente di ciò e, nel 1967, usò la valvola polmonare dello stesso paziente per impedire questa rischiosa evoluzione.
G. A. Kaiser ed i suoi collaboratori furono i primi ad usare la valvola aortica di origine porcina. Questa veniva fissata con glutaraldeide. Egli riportò la sua esperienza con questa tecnica insieme a W. D. Hancock nel 1969.
La bioprotesi congegnata da A. Carpentier ed Edwards utilizzava una struttura di supporto totalmente flessibile. Essa fu introdotta dal laboratorio di Edwards nel 1976.
Chirurgia nella lesioni cardiache congenite
L’avvento della cardiochirurgia pediatrica è in genere considerato come dovuto al coraggio, all’entusiasmo ed all’approccio altamente disciplinato di Robert Gross (1905-1988). Gross fu il primo a praticare la ligatura di un dotto arterioso pervio con successo nel 1939. Questo tentativo temerario e di successo catturò l’immaginazione dei chirurghi toracici di tutto il mondo. La necessità della chirurgia fu suggerita a Gross per la prima volta dal cardiologo Hubbard. Dopo molte sollecitazioni fatte da Hubbard, il giovane chirurgo decise di accettare la sfida passando il tempo sia in laboratorio che al tavolo autoptico per perfezionare la sua tecnica. Quando Gross disse ad Hubbard di essere pronto, la sua proposta fu sottoposta ad dr Blackfan, che era il capo dei pediatri, ma non un cardiologo. Non sentendosi qualificato per prendere una decisione, Blackfan suggerì di consultare Paul D. White. Dopo aver esaminato il bambino, i cui parenti furono i soli a consentire l’intervento tra quelli sollecitati, White disse: “Secondo me si dovrebbe procedere come pianificato”.
Sembra che il primo ad aver proposto tale procedura sia stato Munro. L’idea gli venne nel 1907 mentre eseguiva un’autopsia su un bambino in cui la sola anomalia cardiaca che poté trovare era un dotto arterioso pervio. Secondo Russel Brock, anche Evarts Graham carezzò l’idea all’inizio degli anni venti del novecento, ma fu ostacolato dal professore di pediatria della Louis Children’s Hospital.
Il 1945 vide l’introduzione da parte di Blalock e Taussig della prima procedura con shunt per alleviare la cianosi. Questo fu in realtà un approccio fisiologico e, sebbene puramente palliativo, mostrò di essere una svolta fino a quando le procedure di correzione non vennero implementate con l’avvento della chirurgia a cuore aperto. Dopo la comparsa dell’articolo di Blalock e Taussig, iniziò una vera e propria odissea verso Baltimora. Nell’arco di due anni, 500 pazienti furono sottoposti alla procedura. Naturalmente, l’operazione non era la risposta definita, sia in termini palliativi che correttivi.
Potts comprese subito il valore fisiologico dello shunt Blalock-Taussig. Alla ricerca di un metodo alternativo per un’efficace anastomosi sistemica-polmonare, escludendo la variabile disponibilità delle arterie brachiocefaliche, determinò alla fine la sua versione dello shunt. Questa consisteva in un’anastomosi tra l’arteria polmonare di sinistra e l’aorta toracica discendente. Il principale rischio di tale procedura era rappresentato dal danno ischemico della spina dorsale con risultante paraplegia in caso di occlusione totale dell’aorta discendente durante l’esecuzione dell’anastomosi. In collaborazione con Sidney Smith, un giovane ricercatore del suo staff, e Bruno Richter, un talentuoso “artigiano”, Potts congegnò uno strumento per superare questo potenziale rischio. Tale strumento divenne noto come il clamp ad esclusione aortica di Potts-Smith. Lo strumento era costituito da un retrattore a coperchio modificato, congegnato in modo tale che il bordo mediale dell’aorta discendente potesse essere escluso mentre il resto dell’aorta all’interno dei circuiti di clampaggio rimaneva aperta in modo tale da non compromettere il flusso verso la spina dorsale.
William Glenn bypassava completamente il cuore destro. Egli creava uno shunt tra la vena cava superiore e l’arteria polmonare destra. Il successo di tale shunt dipendeva dal diametro dell’arteria polmonare e dalla resistenza del circolo vascolare polmonare.
Brock introdusse la sua tecnica per la correzione della stenosi polmonare nella tetralogia di Fallot con strumenti progettati da lui stesso. Questi erano valvulotomi di diverse dimensioni, pinze e dilatatori espandenti. Nel giugno 1948, egli eseguì la sua prima valvulotomia polmonare.
La correzione totale “one-stage” della tetralogia di Fallot sostituì l’operazione di Brock allorchè la chirurgia a cuore aperto divenne possibile grazie alla macchina cuore-polmone.
Forse l’apogeo della chirurgia intracardiaca alla cieca venne raggiunto con i tentativi fatti durante questo periodo per correggere i difetti del setto atriale. Alcuni metodi erano ingegnosi, altri furono bizzarri, ma nessuno ebbe veramente una base di ragionamento completamente fisiologica. I primi tentativi in campo chiuso di riparare il difetti del setto atriale risalgono agli anni quaranta del novecento. Alcuni furono sperimentali mentre altri furono provati sugli umani. Il metodo di Roy Cohn, usato solo nei cani e descritto nel 1947, prevedeva l’invaginazione della parete atriale destra così che questa poteva essere suturata alla periferia del difetto. Un anno dopo, Gordon Murray, di Toronto, descrisse il suo metodo. Dopo aver sperimentato la sua tecnica su animali, egli la provò su una ragazzina di 12 anni ma non riuscì a richiudere completamente il difetto con conseguente morte della paziente in meno di un anno. Questa era una procedura semplice ma soggetta all’incertezza di richiudere il difetto in maniere completa. Le suture venivano passate attraverso il setto atriale in senso “front to back” e poi, in sede, semplicemente serrate in modo tale da riunire le pareti del difetto. Un approccio leggermente migliore fu quello riportato da Swan ed il suo gruppo della University of Colorado nel 1950. Essi attaccavano una sutura alla sonda curva che veniva manovrata alla cieca dall’auricola atriale destra attraverso il difetto all’auricola atriale sinistra. Una volta che la sutura veniva posizionata, si ritirava la sonda ed un bottone plastico sull’esterno di ogni auricola veniva passato da un lato all’altro della sutura. Quando le terminazioni della sutura venivano tirate, le auricole atriali subivano l’invaginazione fino a quando il difetto non era chiuso. Ancora, tale tecnica non teneva in considerazione le distorsioni emodinamiche risultanti.
Vennero coinvolti nel problema molti altri leader della cardiochirurgia. Costoro erano Hufnagel, Merendino, Bailey e Gross. Merendino cercò di chiudere i difetti attraverso un sacchetto pericardico riempito con grasso autogeno. Hufnagel, di Georgetown, inserì le due metà di un bottone plastico nel difetto attraverso uno speciale strumento da lui stesso inventato. Le meraviglie della chirurgia intracardiaca alla cieca furono realizzate nel 1952 grazie ai successi di Bailey e Gross. Bailey congegnò la procedura dell’atrio-settopessi mentre Gross introdusse la sua celebre tecnica. A Bailey, l’idea dell’atrio-settopessi venne dopo che ebbe osservato l’autopsia di un paziente affetto da sindrome di Lutembacher. L’approccio intrapreso da Gross aveva il vantaggio della relativamente bassa pressione intra-atriale. Egli suturava uno spazio atriale a forma d’imbuto fino ad una parte esclusa della parete atriale destra. Non appena il clamp escludente veniva rimosso, il sangue sgorgava fino ad un livello in cui la pressione era uguale a quella atriale. A questo punto il chirurgo inseriva il suo dito nel pozzo di sangue, localizzava il difetto con la palpazione e richiudeva il difetto suturandone ai margini una pezza – un approccio nuovo che sembrava fisiologicamente corretto ma che richiedeva la necessità di un chirurgo molto competente.
Grazie all’esperienza accumulata sulle lesioni più semplici, quando la chirurgia a cuore aperto comparve sulla scena, i cardiochirurghi furono pronti ad affrontare quelle più complesse. Inoltre, l’età per l’intervento chirurgico si abbassò gradualmente. Uno dei primi chirurghi che operò bambini sotto i 5 anni fu McMillan. Nel 1965 egli riportò i suoi risultati su 14 bambini sotto questa età che erano stati sottoposti a correzione totale della tetralogia di Fallot. Egli ebbe solo tre morti. Furono usati il bypass e l’ipotermia profonda. Dieci anni dopo i chirurghi operavano i bambini al primo anno d’età.
Rivascolarizzazione miocardica
L’evoluzione delle varie tecniche chirurgiche per la rivascolarizzazione del miocardio avvenne in varie fasi. Il primo stadio fu dedicato al sollievo sintomatico dal distress anginoso piuttosto che alla cura fisiologica della causa del dolore. Gli stadi rimanenti furono rappresentati da veri e propri approcci fisiologici che continuarono ad essere raffinati negli anni con l’aiuto di nuove tecniche chirurgiche e parachirurgiche come il bypass cardiopolmonare e la cine-arteriografia coronarica.
La prima proposta conosciuta di intervento chirurgico per malattia arteriosa coronarica fu la simpatectomia consigliata da Francois-Franck nel 1899 per il trattamento del dolore nell’angina pectoris. Nel 1916, Jonnesco, di Bucarest, eseguì una estirpazione bilaterale della catena simpatica e la rimozione bilaterale dei primi gangli dorsali. Questo storico evento catturò l’attenzione di molti chirurghi così che, nel breve periodo di 10 anni, la denervazione cardiaca, con numerose varianti, divenne “la cosa da fare” per il trattamento dell’angina.
Claude Beck, della Cleveland Clinic, era ben consapevole dell’inadeguatezza della denervazione cardiaca, così concentrò le sue energie sullo sviluppo di un metodo che incrementasse o ridistribuisse l’apporto sanguigno miocardico. L’idea di utilizzare il pericardio gli venne mentre eseguiva le sue numerose procedure di decorticazione pericardica. Ogni volta che una striscia di adesione pericardica veniva tagliata, si determinava un vivace sanguinamento da entrambe le estremità dell’adesione resecata. Le adesioni erano ovviamente ben fornite di sangue e, dal momento che molte delle adesioni erano immerse nel pericardio sovrastante, sembrò logico concludere che il rifornimento vascolare delle adesioni costituiva anche il nutrimento dell’epicardio coinvolto. Nel 1935 Beck pubblicò il suo celebre articolo sullo “Sviluppo di una nuova forma di apporto sanguigno al cuore attraverso un’operazione”. Nel suo lavoro egli descriveva la sua metodologia in maniera dettagliata – come apriva il pericardio, rimuoveva gli strati viscerali, raschiava meccanicamente l’epicardio, aggiungeva della polvere ossea per irritare ulteriormente il pericardio ed alla fine innestava sull’epicardio esposto una fascia di muscolo pettorale. Nello stesso periodo, un giovane chirurgo britannico, Laurence O’Shaughnessy rimase impressionato dall’idea di poter rivascolarizzare il miocardio. O’Shaughnessy e Beck condussero molti esperimenti animali prima di tentare la procedura sugli umani. La morte improvvisa di O’Shaughnessy a Dunkirk, durante la seconda guerra mondiale, fu, secondo il professore Acierno, una grande perdita per l’umanità. Gli articoli di Beck e O’Shaughnessy catturò l’immaginazione di molti chirurghi che avocarono delle proprie modifiche. Furono utilizzate una moltitudine di irritanti chimici e meccanici. Come irritanti meccanici vi erano la sabbia, l’asbesto e le spugna di ivalon. Gli agenti chimici includevano paste irritanti, caulk, silicato di magnesio e fenolo. Alcuni chirurghi tentarono di creare un nuovo afflusso di sangue suturando alla superficie epicardica segmenti del piccolo intestino, omento, polmoni, milza o cute. Gli esperimenti di O’Shaughnessy lo condussero a concludere che l’approccio più promettente era l’uso degli innesti di peduncolo omentale. Ciò era possibile attraverso un’incisione del diaframma. Comunque, clinicamente egli ebbe solo un episodio favorevole di fronte ad un’alta mortalità. Egli chiamò la sua operazione cardio-omentopessi.
Il primo paziente di Beck era un minatore quarantottenne che era totalmente disabile a causa di una severa malattia arteriosa coronarica con angina intrattabile. L’operazione fu eseguita il 13 febbraio 1935. Dopo aver irruvidito la superficie epicardica, Beck innestò su questa superficie un peduncolo di muscolo pettorale sinistro. Il paziente recuperò senza complicanze e molti mesi dopo, presumibilmente dopo la formazione di un sufficiente circolo collaterale, era libero da angina e capace di lavorare come giardiniere.
Il flusso retrogrado dalle camere cardiache attraverso le vene di Tebesio fu un’altra idea avanzata per la rivascolarizzazione miocardica. Questa si basava sulla descrizione di Wearn nel 1933 intorno alla natura delle comunicazioni vascolari tra le arterie coronariche e le camere cardiache. Due anni dopo Gross e Blum descrissero i risultati di alcuni esperimenti sui cani che ebbero delle implicazioni interessanti. Essi mostrarono che quando il seno coronarico veniva occluso, non solo aumentava l’apporto sanguigno al miocardio, ma nello stesso tempo si aveva un’azione protettiva sul miocardio contro l’infarto quando la branca arteriosa coronarica veniva sottoposta a ligatura. Quando Beck apprese ciò, egli aggiunse alla sua procedura la ligatura subtotale.
Due canadesi furono responsabili di altri due approcci nella continua ricerca di un’operazione soddisfacente. Uno fu l’utilizzo dell’arteria mammaria interna come nuova fonte di apporto sanguigno. L’altro fu un attacco diretto sulle arterie coronariche malate attraverso l’endoarteriectomia.
La tecnica di immissione della mammaria interna attraverso il miocardio fu introdotta da Vineberg nel 1946, ma molti anni prima di lui, era stata testata sperimentalmente e scartata da Gordon Murray. La popolarità dell’operazione di Vineberg fu incredibile. Egli stesso riportò nel 1975 l’esecuzione di più di 5000 interventi di questo tipo tra il 1950 e il 1970. Sones sottopose un paziente di Vineberg a cine-arteriografia coronarica 8 anni dopo l’impianto della sua arteria mammaria interna. Harken definì questo uno storico evento poiché non solo provava la pervietà del vaso donatore ma perché mostrava anche il riempimento retrogrado dell’arteria anteriore discendente di sinistra, il che venne considerata un’evidenza di circolo collaterale. Successivi studi di Sones e poi di Gorlin indicavano che la pervietà persisteva in più dell’80% dei pazienti.
Dopo che Vineberg introdusse la sua procedura nel 1946 non vi furono sostanziali modificazioni fino a quella proposta da Smith ed associati nel 1957. Tale gruppo usò sia tubi di nylon che innesti liberi di vena safena anastomizzati in senso termino-laterale all’aorta toracica discendente. Questi agivano da condotti. Vennero praticati molti fori prima che i condotti fossero posizionati.
In tutto ciò anche la Russia ebbe il suo innovatore. Costui era Vasilii I. Kolesov, un celebre cardiochirurgo di Leningrado (ora San Pietroburgo, dopo il recente tramonto del comunismo sovietico). Alcuni autori lo considerano come il primo responsabile dell’introduzione della vascolarizzazione coronarica con l’arteria mammaria interna.Kolesov eseguì la sua prima anastomosi suturata tra l’arteria mammaria interna e l’arteria coronarica il 25 febbraio 1964. Egli usò l’arteria mammaria interna in forma di un peduncolo e, per questa ragione, esso venne definito il peduncolo di Kolesov. Tre anni dopo il suo primo tentativo, Kolesov introdusse la sutura meccanica dell’arteria mammaria sull’arteria coronarica ricevente. Lo stesso Donald Effler riconobbe a Kolesov il ruolo di pioniere nella rivascolarizzazione miocardica. In una lettera all’editore, Effler commentò l’importanza dell’articolo di Kolesov con il titolo “Mammary artery-coronary artery anastomosis as method of treatment for angina pectoris” accettato da Brian Blades per la pubblicazione, nel 1967, sul Journal of Thoracic and Cardiovascular Surgery.
Gordon Murray fu l’altro canadese che venne coinvolto in maniera attiva nel progresso della rivascolarizzazione miocardica. Sembra che egli possa essere stato colui che operò per primo direttamente sulle arterie coronariche. I suoi tentativi, iniziati nel 1950, furono ristretti a trial sperimentali in laboratorio e consistevano nel resecare segmenti di arterie coronariche e costruire dei ponti tra le estremità con innesti venosi. Il suo articolo, pubblicato nel 1954, presentava un atteggiamento negativo sulla fattibilità di tale approccio.
Nel 1939, Fieschi introdusse il concetto di ligatura della mammaria interna. Questa idea rimase dormiente fino al 1956, anno in cui DeMarchi e Battezzati la rivitalizzarono con il loro articolo pubblicato su Minerva Medica. Essi, condividendo l’ipotesi di Fieschi, ritenevano che la ligatura di entrambe le arterie mammarie interne avrebbe deviato il sangue nelle branche pericardiofreniche, con aumento della circolazione all’interno del miocardio. Glover introdusse la procedura negli USA un anno dopo e, per un certo periodo, venne accettata in modo entusiastico e senza nessun riguardo verso la valutazione controllata. Sfortunatamente, nella decade successiva migliaia di pazienti furono sottoposti alla procedura prima che la sua utilità venisse invalidata da studi controllati.
Un importante tentativo sperimentale fu quello descritto da Sauvage nel 1963. Egli riuscì ad inserire con successo nei cani una vena giugulare tra l’aorta e l’arteria coronarica. La possibilità di praticare un bypass con vena safena in una situazione clinica fu dimostrata in maniera fortunosa da Edward Garrett. Egli utilizzò tale procedura per svezzare un paziente dalla macchina cuore-polmone.
Oramai il tempo era maturo per un approccio realmente fisiologico nella gestione chirurgica della malattia arteriosa coronarica – la procedura del bypass. Il successo di tale approccio fu assicurato dalla disponibilità di tre importanti ingredienti; due tecnici ed uno diagnostico. I fattori tecnici furono forniti dallo sviluppo della macchina cuore-polmone e dalla tecnica di Carrel per l’anastomosi dei vasi. L’ingrediente diagnostico fu fornito dall’arteriografia coronarica di Sones.
Sostituendo un’arteria difettosa con un segmento venoso, Carrel mostrò che con la sua tecnica meticolosa la vena diventava anche dal punto di vista della formazione di trombi un condotto adatto al trasporto di sangue arterioso. La vena si ispessiva gradualmente per sopportare la maggiore pressione arteriosa. La tecnica di arteriografia coronarica sviluppata da Sones consentì la precisa localizzazione anatomica delle lesioni ostruttive, la severità ed il grado delle lesioni oltre che il numero di branche coronariche interessate.
Sabiston, nel 1962, fu il primo ad usare la vena safena autogena come innesto per il bypass coronarico. Egli eseguì tale procedura senza il bypass cardiopolmonare. Il paziente ebbe uno stroke subito dopo l’intervento e morì. Il reperto autoptico fu significativo in quanto rivelò un trombo sull’estremità prossimale dell’anastomosi. Lo stroke era senza dubbio dovuto ad un embolo partito da questo coagulo.
Nel maggio 1967 René Favaloro (1923-2000) eseguì la sua prima operazione sull’arteria coronarica. Egli usò un autograft di vena safena per rimpiazzare un segmento stenotico di arteria coronarica destra. Nella parte finale dello stesso anno egli iniziò ad usare la vena safena con un canale bypassante. Nei suoi primi successivi tentativi egli si limitò a bypassare l’arteria coronarica destra.
Gli sforzi pionieristici di Favaloro furono adottati immediatamente da Dudley Johnson, ed in poco tempo, la sua fama si consolidò come quella di Favaloro. Nei fatti, egli estese la procedura al sistema coronarico sinistro e tracciò la via per i bypass multipli.
D) TRAPIANTO CARDIACO E CUORE ARTIFICIALE
L’idea di sostituire un cuore irreversibilmente danneggiato è intrigante sia per il concetto che per la sua implementazione.
In una forma non speculativa, il concetto di un cuore artificiale costituisce la base di una breve storia scritta nel 1882 da Ronald Ross. La novella è intitolata “The Vivisector Vivisected”. Ross non era un fantasioso raccontatore di bizzarre storie. Egli vinse molti anni dopo il Premio Nobel per la scoperta della zanzara che trasmetteva la malaria.
Il vero passaggio dalla fantasia alla possibile realtà avvenne nel 1958. In quel periodo Akutsu e Kolff riportarono i loro risultati sulla sostituzione del cuore in un animale con un congegno meccanico. La fattibilità del metodo fu ampiamente dimostrata sebbene l’animale sopravvisse per soli 90 minuti. Da allora molti altri concentrarono i loro sforzi sull’uso di un cuore artificiale. Tra questi c’erano Kusserow, Hastings, Cooley e DeBakey oltre che De Vreis. Essi dovettero contendere con molti problemi tecnici come la trombosi, le dimensioni della protesi ed i metodi per dare energia al device.
Il primo device costruito per aiutare il ventricolo sinistro nell’uomo fu impiantato al Baylor College of Medicine nel 1963. Questo strumento fu chiamato pompa per il bypass del ventricolo sinistro. Tale pompa venne donata allo Smithsonian Institution ed ora è lì in mostra permanente.
Nell’aprile 1969 Denton Cooley ed il suo gruppo impiantarono per la prima volta un cuore artificiale in un uomo di 47 anni. L’inserimento del device era intesa come una procedura di “stop-gap” fino a quando non si trovava il cuore da trapiantare. Il paziente sopravvisse per 65 ore. Cooley venne severamente criticato di aver tentato questa procedura senza adeguati trial in esperimenti animali. Cooley aspettò 12 anni prima di fare un nuovo tentativo. Questa volta egli riuscì a mantenere il paziente in vita con un supporto per 54 ore prima di sottoporlo a trapianto ortotopico con un cuore umano.
Il primo tentativo di sostituzione cardiaca permanente con protesi meccanica fu quello ampiamente pubblicizzato da William De Vries ed il suo gruppo nel 1982. Il paziente, Barney Clark, era un dentista in pensione. I media furono affascinati da questo approccio “spazio-tempo” e descrissero in dettaglio, su una base giornaliera, l’intero scenario clinico dall’ammissione in reparto fino alla precoce dimissione. Impavido, De Vries installò poco dopo la protesi meccanica congegnata da Jarvik in un paziente che si chiamava Schroeder. Anche questo intervento ricevette le attenzioni profonde dei media. Il paziente sopravvisse per qualche settimana dopo l’impianto, costantemente incatenato ad una batteria di mostruose dimensioni. Anche egli soccombette alle diverse complicanze associate alla protesi.
Clauss ed i suoi associati nel 1961 introdussero il concetto della contropulsazione. Essi facevano parte del gruppo di Harken. La tecnica permetteva la rimozione di sangue dalla circolazione arteriosa durante la sistole ventricolare e la sua restituzione durante la diastole. Moulopoulos, Topaz e Kolff introdussero il pallone intra-aortico come altro strumento per la contropulsazione. Questo si mostrò abbastanza efficace nella gestione dello shock cardiogeno come dimostrato inizialmente da Schilt e Kantrowitz.
I primi chirurghi del XX secolo che condussero esperimenti verso il trapianto cardiaco furono Carrel e Guthrie. Essi iniziarono le loro investigazioni nel 1905 mentre Carrel riportò ulteriori osservazioni nel 1907. Negli esperimenti iniziali venne utilizzato un ratto, ed i quelli successivi, il donatore del cuore veniva collegato ad i vasi del collo del cane ricevente.
Esperimenti simili furono condotti da Mann e Yaterin nel 1933.
Negli anni quaranta Demikhov sviluppò una tecnica che permetteva il trapianto cardiopolmonare senza l’uso di strumenti artificiali per il supporto del ricevente durante la procedura. Alla fine degli anni cinquanta, molti centri furono attivamente coinvolti nel trapianto ortotopico. I pionieri in questo campo furono Goldberg, Berman e Akman, Webb, Howard e Neely, oltre che Cass e Brock. Nessuno di questi ebbe successo in termini di sopravvivenza a lungo termine.
Nel 1964 Hardy eseguì il primo trapianto cardiaco umano con uno xenotrapianto. Il donatore era uno scimpanzè. L’esito fallimentare non impedì ad altri di usare lo stesso approccio. Alla fine degli anni ottanta del novecento, il gruppo della Loma Linda Universitytrapiantò un cuore di babbuino in un bambino, ed anche questo tentativo non ebbe successo.
Nel corso di questa attività sperimentale, il fenomeno del rigetto rimase la principale causa di fallimento. P. B. Medawar fu il primo a sviluppare i concetti immunologici applicati al trapianto. Il primo articolo di Medawar, pubblicato nel 1944, descriveva i suoi esperimenti sui trapianti cutanei nei conigli; un progetto intrapreso su iniziativa del governo britannico. Durante la seconda guerra mondiale, le autorità britanniche istituirono un programma di ricerca mirato alla scoperta di nuovi metodi di cura per i bambini che avevano subito lesioni cutanee nei bombardamenti del 1939. Medawar capeggiò queste ricerche. Egli determinò che il trapianto cutaneo da un coniglio ad un altro coniglio determinava un infiltrato cellulare che in 7-10 giorni distruggeva il trapianto. Egli coniò il termine “rigetto” per questo processo. In questo e nel successivo articolo pubblicato nel 1961, Medawar formulò dei concetti fondamentali che cercavano di dare una spiegazione al processo del rigetto.
Nel 1960 Lower e Norman Edward Shumway (1923-2006) fecero la prima significativa scoperta riguardo agli aspetti tecnici del trapianto cardiaco. Essi avevano riportato i primi trapianti cardiaci ortotopici di successo nel cane. I tre importanti elementi della loro tecnica erano il bypass cardiopolmonare, l’escissione medio-atriale ed il grafting cardiaco con preservazione ipotermica della sede miocardica. La tecnica era ben congegnata e servì da modello per ulteriori procedure investigative. Ma ulteriori progressi non furono possibili fino a quando non venne superato il problema del rigetto.
I cortisonici erano a disposizione dei clinici dagli anni quaranta del novecento ma la loro potenzialità immunosoppressive doveva ancora essere scoperta. Quando Murray e Merrill riportarono il loro “trapianto renale in riceventi modificati” essi usarono gli steroidi come agenti modificanti. La percentuale dei successi aumentò con tale approccio terapeutico, ma in maniera moderata ed accompagnata da un corteo di complicanze.
Questo problema era ancora in piedi quando nel dicembre 1967 Christiaan Neethling Barnard (1922-2001), che era stato allievo di Shumway alla University of Minnesota, oscurò la fama di Shumway ed altri ricercatori con il primo trapianto clinico di cuore umano. Il mondo rimase elettrificato. Alla fine, il trapianto totale era una realtà, ma il paziente morì per una reazione acuta 18 giorni dopo l’intervento. Questo fatto, di per sé, ha determinato la fama di Barnard come colui che inventò il trapianto cardiaco. Trasportato dall’onda dell’entusiasmo che sconvolse il mondo (principalmente per il sensazionalismo della stampa) Barnard provò ancora, ed il paziente morì circa 18 mesi dopo per un severo ateroma dei vasi coronarici del nuovo cuore trapiantato. Questa fu un’altra complicanza che non era stata anticipata.
Vari centri in tutte le parti del mondo seguirono alla cieca questa nuova moda con risultati prevedibilmente tragici; sia dal punto di vista etico che scientifico. In Gran Bretagna, solo il National Heart Hospital seguì la scia di Barnard. Il team chirurgico era guidato da Donald Ross e Donald Longmore. Tre pazienti vennero sottoposti al trapianto da Ross, e tutti e tre morirono con una sopravvivenza massima di 43 giorni.
Mentre la disillusione avanzava, prese piede un più sobrio orientamento e il trapianto cardiaco non sembrò più essere quella grande speranza che era parsa. Nel frattempo, nella solitudine del suo laboratorio a Stanford, Shumway continuò a lavorare assiduamente ai suoi esperimenti. Gradualmente, i risultati continuarono a migliorare, sia in termini di rigetto che sopravvivenza. L’introduzione della ciclosporina nel 1980 come agente immunosopressivo riaccese l’interesse verso il trapianto cardiaco. Gradualmente, il gruppo di Stanford acquisì un’estesa esperienza clinica e, lentamente ma costantemente, il trapianto cardiaco iniziò a riemergere come procedura affidabile. Molti fattori spiegano il perché tale procedura sia oggi diventata uno standard terapeutico affidabile. Questi includono non solo l’atteggiamento disciplinato di Shumway verso il raffinamento della tecnica con razionale protocollo immunosopressivo ma anche lo sviluppo di programmi per il reperimento di cuori a distanza.
TECNICHE INTERVENTISTICHE
Per più di tre decadi la cateterizzazione cardiaca è stata utilizzata solo come una tecnica diagnostica. Un cambio in questo orientamento è avvenuto alla fine degli anni settanta del XX secolo allorchè divenne chiaro ad alcuni cardiologi che la cateterizzazione cardiaca aveva anche un potenziale terapeutico.
Charles Theodore Dotter (1920-1985) e Melvin Judkins (1922-1985) furono i primi a comprendere che il lume di un vaso sanguigno periferico poteva essere allargato con il passaggio di una guida metallica e poi di un catetere o un dilatatore rigido. Essi descrissero questa nuova tecnica nel 1964 come strumento per ridurre la stenosi delle arterie ileofemorali. La tecnica di Dotter, come era chiamata allora, non acquisì il consenso generale principalmente per le complicazioni locali frequentemente associate all’uso. Il principale problema era il trauma causato dall’introduzione di dilatatori rigidi con ampio calibro.
La svolta avvenne nel 1974 allorchè Andreas Roland Gruentzig (1939-1985) e Kumpe sostituirono il dilatatore rigido con un catetere “ballon-tipped”. Inizialmente, la tecnica di Gruentzig venne applicata alle lesioni ostruttive coinvolgenti le arterie periferiche. Questa tecnica fu chiamata “angioplastica percutanea transluminale”. Subito dopo, anche la stenosi dell’arteria renale divenne un indicazione all’uso. I tentativi di allargare le aree stenotiche delle arterie coronariche epicardiche non vennero fatti prima del 1977. In brevissimo tempo l’angioplastica coronarica percutanea transluminale divenne (PTCA) un valido strumento per trattare l’ostruzione delle arterie coronariche. Gruentzig congegnò un proprio tipo di catetere per fare ciò. Questo aveva due lumi. Uno serviva a monitorare o iniettare il materiale radiopaco per visualizzare l’albero coronarico. L’altro lume aveva la funzione di gonfiare o sgonfiare il pallone. Una guida metallica piccola e flessibile, attaccata alla punta del catetere aveva la funzione di dirigere il meccanismo.
La dimostrazione di DeWood sulla sicurezza dell’angiografia durante le prime fasi dell’infarto miocardico, sommata alla sua validità nel mostrare il processo trombotico come fattore responsabile della sequenza di eventi, riattivò l’interesse verso la terapia trombolitica. L’era moderna della terapia trombolitica è iniziata con lui. La visualizzazione delle arterie coronariche con mezzo di contrasto non fu considerata sicura nell’infarto miocardico acuto fino a che DeWood non dimostrò il contrario nel 1980.
A partire dal 1982, i cardiologi pediatrici hanno iniziato ad usare la dilatazione con pallone per separare le commissure nella stenosi della valvola polmonare. Tale tecnica serve a rimpiazzare l’intervento chirurgico in tale lesione per la sua relativa assenza di complicanze e per l’alta percentuale di successi. Nel 1985, Lock ed il suo gruppo ne descrissero l’uso nella stenosi mitralica. In tale intervento essi approcciarono la valvola dall’atrio destro attraverso una puntura transettale. I risultati furono così incoraggianti che, subito dopo, molti centri la ripresero con risultati promettenti nonostante la severa restrizione nella selezione dei pazienti.
FONTI
Articolo tratto da:
- Testo “The History of Cardiology” del prof. Louis J. Acierno (cap. 29)
- Arthur Voorhees (1921-1992)
- Wikipedia ( Michael DeBakey)
- Oscar Creech (1917-1967)
- Wikipedia ( Ludwig Rehn)
- Wikipedia ( John Snow)
- Donazione di sangue a papa Innocenzo VIII
- Testo “La Donazione in Italia: Situazione e prospettive della donazione di sangue” di Castelnuovo, Menici, Fedi (pag. 10)
- Wikipedia ( Elliot C. Cutler)
- Wikipedia ( Andreas Gruentzig)
Autore: dott. Concetto De Luca (dicembre 2011)
Il 9 maggio 1967, a 44 anni, il chirurgo italo-argentino Rene Geronimo Favaloro cambio la storia della medicina moderna. A Cleveland sul tavolo operatorio c’era un nne con un’arteria coronarica occlusa e solo il 20% di possibilita di farcela. Condizioni disperate che permisero al chirurgo con i nonni originari di Salina di effettuare il primo bypass aorto-coronarico, entrando nella storia.