Vai al contenuto
Menu principale
Menu principale
sposta nella barra laterale
nascondi
Navigazione
Pagina principale
Ultime modifiche
Una pagina a caso
Aiuto su MediaWiki
Unipedia
Ricerca
Ricerca
entra
Strumenti personali
entra
Pagine per utenti anonimi
ulteriori informazioni
contributi
discussioni
Modifica di
Linguistica computazionale
(sezione)
Pagina
Discussione
italiano
Leggi
Modifica
Cronologia
Strumenti
Strumenti
sposta nella barra laterale
nascondi
Azioni
Leggi
Modifica
Cronologia
Generale
Puntano qui
Modifiche correlate
Pagine speciali
Informazioni pagina
Attenzione:
non hai effettuato l'accesso. Se effettuerai delle modifiche il tuo indirizzo IP sarà visibile pubblicamente. Se
accedi
o
crei un'utenza
, le tue modifiche saranno attribuite al tuo nome utente, insieme ad altri benefici.
Controllo anti-spam.
NON
riempirlo!
== Storia == === I primi passi: gli anni Cinquanta === La nascita della linguistica computazionale risale alla seconda metà del Novecento, in un contesto storico dominato dalla Guerra Fredda, durante la quale i governi iniziarono ad investire nella ricerca e nella traduzione automatica per esigenze militari e di intelligence. Nelle sue fasi iniziali, la linguistica computazionale seguì due distinti paradigmi <ref> Lenci, Montemagni, Pirrelli, ''Testo e computer'', p. 14. </ref>. *Il primo paradigma riguarda l’uso pionieristico dei calcolatori nello studio di testi letterari e filosofici, dove il contributo più significativo fu quello di Roberto Busa con il primo corpus elettronico delle opere di Tommaso d’Aquino, progetto che gettò le basi per l’analisi automatizzata di testi. *Il secondo paradigma riguarda l’applicazione di metodi formali all’analisi linguistica, ispirata alla nascita della grammatica generativa di Noam Chomsky nel 1957. In questo contesto, si svilupparono anche le prime applicazioni del Natural Language Processing (NLP), come programmi per l’analisi sintattica e la traduzione automatica. Nel 1954, l’esperimento Georgetown-IBM dimostrò le potenzialità della traduzione automatica utilizzando un IBM-701 per tradurre frasi dal russo all’inglese<ref> https://www.yuqo.it/nascita-e-storia-della-traduzione-automatica/</ref>. Tra i pionieri della linguistica computazionale si distinguono, oltre a Noam Chomsky, anche: * Warren Weaver, che propose l’idea di tradurre automaticamente i testi tra lingue diverse, ispirandosi ai progressi nella teoria dell’informazione e nella cibernetica. * Alan Turing, che con il suo lavoro sulla teoria della computabilità offrì le fondamenta teoriche per la manipolazione algoritmica del linguaggio. === La crisi e il TAL: gli anni Sessanta === Negli anni Sessanta il campo della traduzione automatica, oltre a vedere un’intensa attività di ricerca, affrontò una crisi significativa. In questo periodo, il rapporto ALPAC (1966), commissionato dal governo degli Stati Uniti, valutò negativamente i costi e i benefici della traduzione automatica rispetto ai risultati ottenuti<ref> https://www.yuqo.it/nascita-e-storia-della-traduzione-automatica/ </ref>. Ciò portò a una significativa riduzione dei fondi e a un rallentamento della ricerca in questo ambito. Tuttavia, questa fase di crisi favorì significativamente lo sviluppo di altre aree del Trattamento Automatico del Linguaggio (TAL) che, influenzato dalla grammatica generativa, si concentrò sull’elaborazione di grammatiche formali per rappresentare i linguaggi come un sistema di regole deduttive. I sistemi sviluppati in questo periodo, pur legati tra loro a livello teorico, erano spesso limitati a contesti artificiali e incapaci di affrontare la complessità del linguaggio in situazioni pratiche. Parallelamente si consolida una tradizione empiristica fondata sull’analisi dei corpora linguistici. L’uso di collezioni testuali come il Brown Corpus (1964) segnò l’avvio dell’applicazione di metodi statistici al linguaggio e pose le basi per lo sviluppi di strumenti innovativi <ref> Lenci, Montemagni, Pirrelli, ''Testo e computer'', p. 14, 15. </ref> . === L’ascesa dell’IA: gli anni Settanta e Ottanta=== Negli anni Settanta e Ottanta il TAL è stato profondamente influenzato dall'approccio razionalista e simbolico che dominava il panorama scientifico, condiviso sia dalla grammatica generativa di Noam Chomsky sia dall’Intelligenza Artificiale (IA) dell’epoca. Questo paradigma privilegiava metodi logico-deduttivi e algebrici, concentrandosi sulla rappresentazione del linguaggio attraverso sistemi di regole strutturate. La prospettiva chomskiana, che separava nettamente la competenza linguistica dall’esecuzione, portò allo sviluppo di modelli computazionali basati su regole astratte, spesso limitati a contesti artificiali e incapaci di affrontare la complessità del linguaggio in situazioni reali. Parallelamente, si consolidò la tradizione empirista della linguistica dei corpora, che promuoveva l’uso di raccolte testuali e metodi statistici per analizzare il linguaggio. Questo approccio, inizialmente marginale rispetto alla metodologia simbolica, guadagnò terreno grazie a progetti come il Brown Corpus (1964), che pose le basi per una svolta metodologica. Verso la fine degli anni Ottanta, il TAL e l’IA iniziarono a convergere verso un approccio più bilanciato, integrando metodi simbolici e statistici, gettando le fondamenta per lo sviluppo di tecnologie linguistiche più robuste e applicabili a contesti reali. === Il boom di Internet: gli anni Novanta === Negli anni Novanta, grazie al precedente avvento dei computer personali e l'accesso crescente a grandi corpora di testo, la linguistica computazionale ha visto un notevole sviluppo. I modelli statistici <ref> Lenci, Montemagni, Pirrelli, ''Testo e computer'', p. 17. </ref> e l'apprendimento automatico sono diventati strumenti centrali, con applicazioni che vanno dalla traduzione automatica ai sistemi di riconoscimento vocale. === Rivoluzione del deep learning: dal Duemila ad oggi=== A partire dal Duemila, il campo della linguistica computazionale ha visto una rivoluzione grazie all’espansione dei dati e ai progressi del deep learning. In particolare, con l’introduzione di architetture complesse, come le reti neurali profonde, è stata migliorata la qualità dei sistemi di traduzione automatica e di gestione del contesto linguistico. I modelli di grandi dimensioni (LLM), seppur non basati su strutture neurali, hanno consentito un notevole miglioramento dei sistemi di elaborazione del linguaggio in particolare nella comprensione della semantica. Oggi la LC è una disciplina matura che ha conquistato una posizione centrale nel panorama scientifico nazionale e internazionale. Nel 2017, con i modelli Transformer, le prestazioni di generazione del testo sono state migliorate soprattutto in termini di accuratezza e fluidità delle frasi; tuttavia, le tecnologie sono ancora limitate se confrontate con la capacità linguistica del parlante <ref> Lenci, Montemagni, Pirrelli, ''Testo e computer'', p. 17. </ref> .
Oggetto:
Per favore tieni presente che tutti i contributi a Unipedia possono essere modificati, stravolti o cancellati da altri contributori. Se non vuoi che i tuoi testi possano essere alterati, allora non inserirli.
Inviando il testo dichiari inoltre, sotto tua responsabilità, che è stato scritto da te personalmente oppure è stato copiato da una fonte di pubblico dominio o similarmente libera (vedi
Unipedia:Copyright
per maggiori dettagli).
Non inviare materiale protetto da copyright senza autorizzazione!
Annulla
Guida
(si apre in una nuova finestra)
Toggle limited content width