Applicazioni mediche dell'intelligenza artificiale: differenze tra le versioni
| Riga 59: | Riga 59: | ||
===Diagnosi Malattia=== | ===Diagnosi Malattia=== | ||
intelligenza artificiale (IA) sta rivoluzionando il campo della medicina, trasformando i paradigmi tradizionali di diagnosi, trattamento e gestione delle malattie. Grazie ai rapidi progressi in questo settore, gli specialisti della salute sono oggi in grado di offrire cure più precise, personalizzate ed efficienti. | L'intelligenza artificiale (IA) sta rivoluzionando il campo della medicina, trasformando i paradigmi tradizionali di diagnosi, trattamento e gestione delle malattie. Grazie ai rapidi progressi in questo settore, gli specialisti della salute sono oggi in grado di offrire cure più precise, personalizzate ed efficienti. | ||
===Diagnostica Immagini=== | ===Diagnostica Immagini=== | ||
Versione delle 14:06, 5 feb 2025
L'Intelligenza Artificiale (IA) in campo medico-sanitario si riferisce all'applicazione di sistemi avanzati e algoritmi in grado di elaborare informazioni complesse per supportare diagnosi, trattamenti e gestione dei pazienti.
Intelligenza Artificiale
L’Intelligenza Artificiale (AI o anche Artificial intelligence) è una tecnologia informatica che consente l'interazione tra l'uomo e la macchina.
L'IA è il processo attraverso cui le macchine e i sistemi informatici simulano i processi di intelligenza umana.
L'IA elabora il linguaggio naturale, il riconoscimento vocale e la visione artificiale.
Grazie all'intelligenza artificiale è possibile (almeno questo l'obiettivo ultimo) rendere le macchine in grado di compiere azioni e "ragionamenti" complessi, imparare dagli errori, e svolgere funzioni fino ad oggi esclusive dell'intelligenza umana. Oggi in Italia e nel mondo l'intelligenza artificiale viene utilizzata in azienda e non solo, per svolgere compiti che all'uomo richiederebbero molto tempo.
Machine Learning
Il machine learning nasce nel 1959 ed è stato inventato dallo scienziato americano e pioniere dell’intelligenza artificiale Arthur Lee Samuel. Questi coniò il termine per la prima volta, definendolo come il campo di studio che dà ai computer la capacità di apprendere senza essere esplicitamente programmati.
Oggi per machine learning si intende la capacità di una macchina di imitare il comportamento e l’intelligenza umani. Questo particolare sottocampo dell’intelligenza artificiale permette, infatti, di eseguire compiti complessi e di risolvere problemi in un modo simile a quello degli umani.
L’espressione inglese machine learning sta, dunque, a significare l’attività di apprendimento automatico tipica delle macchine, rivolta alla creazione di modelli computerizzati in grado di simulare il comportamento intelligente umano attraverso l’esperienza diretta. Ciò significa poter disporre di macchine in grado, per esempio, di riconoscere una scena visiva, comprendere un testo scritto in un linguaggio naturale o di eseguire un’azione nel mondo fisico.
Deep Learning
Deep learning è un sottoinsieme del machine Learning (ML), in cui gli algoritmi di reti neurali artificiali sono modellati per funzionare come l'apparato cerebrale umano, imparando da grandi quantità di dati. Il Deep learning è basato su livelli di reti neurali che sono algoritmi modellati in modo approssimativo sul modo di lavorare dei cervelli umani. La formazione con grandi quantità di dati è ciò che configura i neuroni nella rete neurale. Il risultato è un modello di deep learning che, una volta formato, elabora nuovi dati. I modelli di Deep Learning acquisiscono informazioni da più origini dati e analizzano tali dati in tempo reale, senza la necessità di intervento umano. Nel deep learning, le unità di elaborazione grafica (GPU) sono ottimizzate per i modelli di formazione perché possono elaborare più calcoli contemporaneamente. Il Deep learning è ciò che guida molte tecnologie di intelligenza artificiale (AI) in grado di migliorare l'automazione e le attività analitiche. La maggior parte delle persone incontra il deep learning ogni giorno durante la navigazione su Internet o l'uso dei telefoni cellulari. Tra le numerose altre applicazioni, il deep learning viene utilizzato per generare didascalie per i video YouTube, per eseguire il riconoscimento vocale sui telefoni e gli altoparlanti intelligenti, per consentire il riconoscimento facciale delle fotografie e per consentire la guida autonoma delle automobili. E poiché i data scientist e i ricercatori affrontano progetti di deep learning sempre più complessi che favoriscono la creazione di contesti di deep learning, questo tipo di intelligenza artificiale diventerà solo una parte più importante della nostra vita quotidiana.
Natural Language Processing (NLP)
L'elaborazione del linguaggio naturale (NLP) è una branca dell'intelligenza artificiale (IA) che consente ai computer di comprendere, generare e manipolare il linguaggio umano. L'elaborazione del linguaggio naturale ha la capacità di interrogare i dati con testo o voce in linguaggio naturale. Questo è anche chiamato "linguaggio in". La maggior parte dei consumatori ha probabilmente interagito con l'NLP senza rendersene conto. Ad esempio, l'NLP è la tecnologia di base alla base degli assistenti virtuali, come Oracle Digital Assistant (ODA), Siri, Cortana o Alexa. Quando poniamo domande a questi assistenti virtuali, l'NLP è ciò che consente loro non solo di comprendere la richiesta dell'utente, ma anche di rispondere in linguaggio naturale. L'NLP si applica sia al testo scritto che al parlato e può essere applicato a tutte le lingue umane. Altri esempi di strumenti basati sull'NLP includono la ricerca web, il filtraggio dello spam e-mail, la traduzione automatica di testo o parlato, il riepilogo dei documenti, l'analisi del sentiment e il controllo grammaticale/ortologico. Ad esempio, alcuni programmi di posta elettronica possono suggerire automaticamente una risposta appropriata a un messaggio in base al suo contenuto: questi programmi utilizzano l'NLP per leggere, analizzare e rispondere al tuo messaggio.
Computer Vision
La computer Vision è un campo dell'intelligenza artificiale (AI) che utilizza il machine learning e le reti neurali per insegnare ai computer e ai sistemi a ricavare informazioni significative da immagini digitali, video e altri input visivi e a formulare raccomandazioni o intraprendere azioni quando vengono identificati difetti o problemi. Se l'AI consente ai computer di pensare, la computer vision consente loro di vedere, osservare e capire.
La computer Vision funziona in modo molto simile alla visione umana, tranne per il fatto che gli esseri umani hanno un vantaggio. La vista umana ha il vantaggio di poter contare su innumerevoli informazioni di contesto per allenarsi a distinguere gli oggetti, la loro distanza, se si stanno muovendo o se c'è qualcosa di sbagliato in un'immagine.
La computer Vision addestra le macchine a svolgere queste funzioni, ma deve farlo in tempi molto più brevi con telecamere, dati e algoritmi piuttosto che con retine, nervi ottici e corteccia visiva. Dal momento che un sistema addestrato per ispezionare prodotti o osservare un asset di produzione è in grado di analizzare migliaia di prodotti o processi al minuto, notando difetti o problemi impercettibili, può superare rapidamente le capacità umane.
La computer vision viene utilizzata in settori che vanno dall'energia e dai servizi di pubblica utilità alla produzione e all'industria automobilistica, con il mercato che continua a crescere.
Applicazioni Mediche
Chirurgia Robotica
La chirurgia robotica è un’area della medicina moderna che utilizza tecnologie avanzate per assistere i chirurghi durante gli interventi in sala operatoria. Offre una serie di vantaggi, tra cui una maggiore precisione, minore invasività, tempi di recupero più rapidi e, generalmente, minori rischi di complicanze per i pazienti. Richiede un’applicazione costante per un apprendimento progressivo e consapevole. Non solo il chirurgo, ma tutto il team robotico di sala è parte attiva di ogni intervento sul paziente e, con la sua esperienza, determina il successo di un intervento.
I sistemi robotici chirurgici in uso sono costituiti da bracci robotici che vengono controllati dal chirurgo tramite una consolle distante dal letto operatorio, munita di molteplici comandi installati su joystick e su pedaliera che il chirurgo coordina nell’uso durante l’intervento. Lo specialista guida sulla road map digitale dell’intervento da eseguire i movimenti del robot, e il sistema converte tali impulsi in azioni precise all’interno del corpo del paziente.
I robot chirurgici sono dotati di strumenti miniaturizzati, come pinze e bisturi, che permettono di eseguire operazioni con una maggiore precisione e una migliore manovrabilità rispetto alle tecniche chirurgiche tradizionali, perché amplificati da una magnificazione di immagine dovuta a potenti ottiche supportate da telecamere ad altissima risoluzione.
Produzione Farmaci
L'utilizzo dell’Intelligenza Artificiale in ambito farmaceutico sta riscuotendo un notevole successo negli ultimi tre anni, con notevoli passi avanti rispetto al periodo precedente, soprattutto se si pensa al suo impatto sull’abbattimento dei costi e sul raggiungimento degli obiettivi in tempi alquanto fulminei per gli standard del settore. ci sono centinaia di startup che stanno esplorando l’uso dell’apprendimento automatico nell’industria farmaceutica. Oggi, in media, ci vogliono più di un decennio e miliardi di dollari per sviluppare un nuovo farmaco. L’obiettivo “comune” è quello di utilizzare l’Intelligenza Artificiale per rendere la scoperta dei farmaci più veloce, sicura ed economica. Prevedendo il comportamento dei potenziali farmaci nell’organismo e scartando “in anticipo” i composti che non funzionano, i modelli di apprendimento automatico possono ridurre la necessità di ricorrere a lunghe ed “estenuanti” procedure di laboratorio. Stiamo assistendo ad una impennata di attività e investimenti perché la crescente automazione dell’industria farmaceutica ha iniziato a produrre abbastanza dati chimici e biologici per addestrare modelli di apprendimento automatico efficaci. La nuova generazione di aziende del campo dell’Intelligenza Artificiale si sta concentrando su tre punti critici nel processo di sviluppo dei farmaci:
individuare il bersaglio giusto nell’organismo, progettare la molecola giusta per interagire con esso, determinare in quali pazienti la molecola ha maggiori probabilità di essere utilizzata con successo. Con l’apprendimento automatico è possibile sfruttare grandi quantità di dati, compresi quelli relativi a farmaci e molecole, per costruire automaticamente “modelli complessi”. In questo modo è molto più facile e veloce prevedere il comportamento dei farmaci nell’organismo, consentendo di effettuare molti esperimenti. I modelli di apprendimento automatico possono anche setacciare vasti bacini non sfruttati di potenziali molecole di farmaci in un modo che prima non era possibile. Il risultato è che il duro, ma essenziale, lavoro in laboratorio (e nelle seguenti fasi di studi clinici) deve essere svolto solo sulle molecole con le migliori probabilità di successo.
Prima ancora di arrivare a simulare il comportamento dei farmaci, molte aziende stanno applicando l’apprendimento automatico al problema dell’identificazione dei bersagli. L’utilizzo del linguaggio naturale per estrarre i dati da vasti archivi di relazioni scientifiche risalenti a decenni fa, tra cui centinaia di migliaia di sequenze genetiche pubblicate e milioni di articoli accademici. I modelli di apprendimento automatico possono prevedere quali sono i bersagli più promettenti su cui concentrarsi per cercare di curare una particolare malattia. Ma la scelta di un bersaglio è solo l’inizio. La sfida più grande è progettare una molecola di farmaco che faccia “qualcosa”, che sia produttiva di risultati. L’interazione tra le molecole all’interno del corpo, peraltro, è molto complicata. Molti farmaci devono attraversare ambienti ostili, come l’intestino, prima di poter svolgere il loro lavoro. Tutto il processo è regolato da leggi fisiche e chimiche che operano su scala atomica. L’obiettivo della maggior parte degli approcci alla progettazione di farmaci basati sull’Intelligenza Artificiale è quello di “navigare” tra le vaste possibilità e individuare rapidamente nuove molecole che soddisfino il maggior numero possibile di requisiti.
Le startup più promettenti Altre startup del settore sono le statunitensi: Generate Biomedicines, con sede a Cambridge (Massachusetts), che si propone di raggiungere l’obiettivo dell’individuazione di nuove molecole utilizzando lo stesso tipo di Intelligenza Artificiale generativa che sta alla base di software per la creazione di testi e immagini come DALL-E 2 (“DALL-E 2 della biologia”)[2]; e l’azienda di Vancouver “Absci”, che sta cercando di creare nuovi farmaci a base di proteine utilizzando l’apprendimento automatico, ma con un approccio diverso[3]. Quest’ultima azienda prende gli anticorpi esistenti – le proteine che il sistema immunitario usa per eliminare batteri, virus ecc. – e usa modelli addestrati sui dati degli esperimenti di laboratorio per proporre molti nuovi design per le parti di questi anticorpi che si attaccano alla materia estranea. L’idea è quella di riprogettare gli anticorpi esistenti per renderli più adatti a legarsi ai bersagli. Dopo aver apportato modifiche simulate, i ricercatori sintetizzano e testano i progetti che funzionano meglio.
Anche l’azienda americana “Apriori Bio” (concittadina di “Generate Biomedicines”) ha “puntato le sue fiches” sul settore in esame. Tale azienda, in piena attività dal precedente periodo pandemico, costruisce milioni di varianti Covid in laboratorio e testa la capacità degli anticorpi che le possono combattere e neutralizzarle. Apriori Bio utilizza l’apprendimento automatico per prevedere come i migliori anticorpi se la “caverebbero” contro altri cento miliardi di miliardi di varianti. L’obiettivo è quello di scegliere gli anticorpi “più promettenti”, quelli che sembrano in grado di affrontare un’ampia gamma di varianti o che potrebbero combattere particolari varianti aggressive, utilizzandoli per progettare vaccini straordinariamente efficaci. D’altronde, il vero potenziale dell’Intelligenza Artificiale è di aprire un enorme bacino non sfruttato di strutture biologiche e chimiche che potrebbero diventare gli ingredienti di futuri farmaci. Una volta eliminate le molecole molto simili, si può attingere da un elenco di ingredienti di al massimo dieci milioni di molecole dalle quali partire per costruire i farmaci. Eppure, secondo le regole della chimica organica, il numero di possibili molecole che potrebbero diventare farmaci è di 1033 (secondo altre stime, 1060). Se si confronta questo numero con dieci milioni di molecole, si capisce che “stiamo pescando in una goccia e non nell’oceano”.
L’azienda californiana Verseon, invece, sta utilizzando tecniche computazionali vecchie e nuove per esplorare questo “oceano”, generando milioni di possibili molecole e testandone le proprietà. L’azienda di Fremont tratta l’interazione tra farmaci e proteine nel corpo come un problema di fisica, simulando la spinta e l’attrazione tra gli atomi che influenza il modo in cui le molecole si uniscono. Simulazioni molecolari di questo tipo non sono nuove; tuttavia, Verseon utilizza l’Intelligenza Artificiale per modellare in modo più accurato l’interazione tra le molecole. Finora l’azienda californiana ha prodotto sedici farmaci candidati per una serie di patologie, tra cui condizioni cardiovascolari, malattie infettive e cancro. Uno di questi farmaci è già in fase di sperimentazione clinica, mentre la sperimentazione di molti altri è destinata a iniziare a breve.
Come l’IA può ridurre i tempi e i costi della ricerca di nuovi farmaci In ogni caso, al di là di tutto, i farmaci devono essere testati sugli esseri umani. Queste fasi finali dello sviluppo di un farmaco, che prevedono il reclutamento di un gran numero di volontari, sono difficili da gestire e, in genere, richiedono molto tempo: si va, alle volte, dai dieci ai venti anni. Molti farmaci “ce la fanno”, altri falliscono la prova della sperimentazione clinica. L’Intelligenza Artificiale non sarà in grado di accelerare il processo di sperimentazione clinica, ma potrebbe aiutare le aziende farmaceutiche ad aumentare le probabilità a loro favore, riducendo i tempi e i costi della ricerca di nuovi farmaci. Con meno tempo speso a testare molecole di farmaci senza prospettive in laboratorio i candidati “promettenti” arriveranno più rapidamente alla sperimentazione clinica. Inoltre, con meno soldi in gioco, le aziende potrebbero non sentirsi obbligate ad utilizzare un farmaco che non sta dando risultati particolarmente buoni.
Anche una migliore selezione dei pazienti potrebbe contribuire a migliorare l’intero processo. La maggior parte delle sperimentazioni cliniche misurano l’effetto medio di un farmaco, contando quante persone hanno avuto successo e quante no. Se un numero sufficiente di persone, in una data sperimentazione, vede un miglioramento della propria condizione, il farmaco viene considerato un successo. Se il farmaco non è efficace per una percentuale abbastanza ampia di pazienti, allora siamo dinanzi ad un fallimento. Ma questo può significare anche che piccoli gruppi di persone, per le quali un farmaco ha funzionato con successo, vengano trascurati (facendo parte del “fallimento”). Se si riuscisse a selezionare i “pazienti giusti” dall’origine, le cose potrebbero andare diversamente. È il caso dello studio austriaco in premessa. Exscientia ha prelevato campioni di tessuto da decine di pazienti oncologici sottoposti ad almeno due cicli falliti di chemioterapia e ha valutato gli effetti di 139 farmaci esistenti sulle loro cellule. L’azienda britannica, grazie alla collaborazione dei ricercatori dell’università viennese, è riuscita a identificare un farmaco che ha funzionato per oltre la metà dei pazienti. Exscientia vuole utilizzare questa tecnologia per modellare il proprio approccio allo sviluppo dei farmaci, incorporando i dati dei pazienti nelle prime fasi del processo per addestrare un’Intelligenza Artificiale “migliorata”.
Diagnosi Malattia
L'intelligenza artificiale (IA) sta rivoluzionando il campo della medicina, trasformando i paradigmi tradizionali di diagnosi, trattamento e gestione delle malattie. Grazie ai rapidi progressi in questo settore, gli specialisti della salute sono oggi in grado di offrire cure più precise, personalizzate ed efficienti.
Diagnostica Immagini
Medicina Personalizzata
Patologie Tumorali
Implicazioni etiche-legali
Le implicazioni etiche dipendono dagli imput e dalle informazioni che vengono fornite da noi umani. Quindi le nostre informazioni possono contenere degli errori sin dall’origine oppure dei pregiudizi (ad es. discriminazioni) Non è chiaro come vengano prese le decisioni dall’IA. Non sempre il medico ha chiara la modalità con cui la macchina è arrivata a quella conclusione. La macchina può arrivare a manipolare l’uomo e quindi la decisione del medico Grandi quantità di dati sensibili. Non sappiano come vengono elaborate le informazioni che forniamo - processo logico. La macchina lavora su dati statistici che hanno sempre un margine di errore. In campo medico è molto delicata la questione. La macchina non sa risolvere nuovi problemi per i quali non ha informazioni. Non ha senso comune
Fiducia
Chi fornisce i dati e chi utilizza i dati deve agire in base al principio della fiducia.
Problemi Lavorativi
La macchina sostituirà l’uomo in alcuni lavori cognitivi e potrebbe portare a risvolti etici
Possibili Sviluppi
In futuro sarà necessario prevedere la possibilità per le macchine di prendere decisioni trasversali. Per risolvere i problemi etici e legali la società civile, le aziende, le autorità e le istituzioni, i Governi devono stabilire dei principi che dovranno essere alla base dell’utilizzo futuro dell’IA Necessità di una Governance. Chi fornisce i dati e chi li utilizza dovrà rispettare principi di etica bene precisi.