Acquisizione del linguaggio, povertà dello stimolo e innatismo
La letteratura anti-nativista è sterminata. Rimando gli interessati alla ricca bibliografia in Behme & Evans (2015: 151). Evans (2014) è un recentissimo volume che critica l'innatismo di Chomsky e che ha suscitato svariate polemiche. Un altro buon riassunto del problema è in Dąbrowska (2015). Si consiglia anche la lettura di Sampson (2005; 2007), Pullum & Scholz (2002; 2010) e Lombardi Vallauri (2004; 2012). Da parte mia, vorrei presentare una contraddizione, insita nell’argomento di Chomsky, che finora sembra essere passata inosservata.
Struttura dell'APS
L’idea del linguaggio innato risale alla famosa monografia di Chomsky Aspects of the Theory of Syntax (Chomsky 1965), mentre la prima formulazione esplicita dell’APS compare solo in Chomsky (1980). Trattazioni esaustive dell'APS si trovano oggi in Pullum & Scholz (2002) e in Clark & Lappin (2011), a cui rimando gli interessati. Qui di seguito riproduco il ragionamento di Chomsky sotto forma di una lista di proposizioni che rappresentano la struttura logica dell'APS.
- La componente più importante del linguaggio umano è la sintassi, ossia le regole che governano la costruzione di frasi a partire da parole e gruppi di parole. La semantica — il significato delle parole e delle frasi — è considerata secondaria rispetto alla sintassi e non determinante nella costruzione frasale.
- La sintassi è ricorsiva: unendo insieme due sintagmi (cioè “pezzi di frasi”) otteniamo un altro sintagma, e non un’entità di rango superiore. In particolare, ogni frase può ricorsivamente diventare un "pezzo di frase" di una frase più lunga. (Per contro: mettendo insieme dei suoni otteniamo delle parole, ossia entità di rango superiore ai suoni).
- Non vi è alcuna regola che ponga esplicitamente un limite ai cicli ricorsivi. Quindi le frasi formulabili possono avere lunghezza e complessità infinite (con la cardinalità di ℕ, infinito numerabile).
- Il parlante è sempre in grado di giudicare la grammaticalità di una sequenza di parole (nella propria lingua), cioè distinguere una frase corretta da una agrammaticale.
- Questa capacità non è limitata né da caratteristiche individuali del parlante (come età o istruzione), né dal fatto che le frasi siano illimitate quanto a lunghezza e complessità. Quindi, i parlanti convergono verso la medesima grammatica. Si noti che, invirtù della (1), il parlante esprime il giudizio di grammaticalità a prescindere dalla semantica della frase in esame, quindi può anche non capirne il senso ma tuttavia afferrarne la struttura sintattica (ad esempio, distinguere il soggetto dal predicato).
- I problemi che affronta il linguista sono due:
- Descrivere il meccanismo che rende possibile il giudizio di grammaticalità su un input potenzialmente infinito.
- Spiegare come tale meccanismo venga acquisito nella fase di apprendimento del linguaggio da parte del bambino.
- La risposta alla domanda (6a) è che il parlante non memorizza un mero elenco di frasi corrette (perché tale elenco sarebbe, in teoria, infinito, e in pratica già così enorme da non poter entrare nella memoria di nessuno). Ciò che il parlante fa è utilizzare un algoritmo che permette di calcolare la grammaticalità di una frase qualsiasi a partire da una serie finita di regole generative (che generano alcune strutture a partire da altre) e trasformazionali (che spostano le strutture generate da un punto a un altro della struttura frasale).
- Quanto alla domanda in (6b), l’apprendimento di questo algoritmo, o grammatica, può avvenire in due modi:
- generalizzando lo stimolo esterno (ossia ascoltando e le frasi prodotte dagli altri parlanti);
- oppure utilizzando una conoscenza innata (ossia riconoscendo nell'input alcune strutture e schemi che sono presenti nella mente fin dalla nascita).
- L'ipotesi (8a) dell’acquisizione della grammatica dallo stimolo esterno è esclusa perché tale stimolo sarebbe povero: nella comunicazione madre-figlio, durante l’apprendimento della lingua materna, la qualità e la quantità degli enunciati che sente il bambino sarebbe assai bassa. Inoltre è presente solo lo stimolo positivo, ma non quello negativo: il genitore parla al bambino con frasi corrette, ma non gli spiega come evitare quelle agrammaticali.
- Per esclusione deve essere vera l'ipotesi (8b): la grammatica, ovvero la sua componente più fondamentale e condivisa da tutte le lingue del mondo, chiamata quindi grammatica universale (GU), è innata nell’essere umano, cioè codificata nel suo corredo genetico e localizzata nel cervello al pari di un organo.
Riassunto breve: l’input esterno non è sufficiente al bambino per acquisire la grammatica di un linguaggio potenzialmente infinito, quindi la grammatica deve essere innata.
L’APS è presentato da Chomsky non come un fatto empirico, ma come un teorema dimostrato logicamente, in cui l’implicazione finale (10) consegue correttamente dalla congiunzione delle premesse. Per fare questo, egli presenta le premesse come delle verità autoevidenti, mentre in realtà sarebbero in gran parte empiriche. Praticamente ognuno dei punti qui elencati, in formulazioni più o meno analoghe, è stato oggetto di feroci critiche da parte di studiosi che studiano le tematiche ivi evocate in modo empirico (dagli psicologi dell’infanzia ai matematici specializzati nell'intelligenza artificiale).
In che senso il linguaggio è infinito?
Cerchiamo di spiegare l'affermazione di Chomsky (2009: 25): «An elementary fact about the language faculty is that it is a system of discrete ininity». Per spiegarlo partiamo dal fenomeno dell’embedding delle relative, cioè la possibilità di inserire frasi relative dentro altre frasi, senza alcun limite teorico. Ad esempio, alla frase
Una ragazza, che Giovanni non aveva mai visto prima, è entrata nella stanza.
è possibile aggiungervi una seconda relativa, ottenendo un doppio embedding:
Una ragazza, che Giovanni, il quale notoriamente aveva una buona memoria, non aveva mai visto prima, è entrata nella stanza.
Frasi molto lunghe o con embedding superiore a tre livelli si incontrano come artifici letterari (cfr. la frase di 1077 parole, che si espande per ben sei pagine, nel romanzo Der Tod des Vergil di H. Broch, vedi Karlsson 2010: 46), ma sono di fatto assenti dall'uso naturale (vedi i dati in Levinson 2014). Chomsky stesso discute la difficoltà (se non l’impossibilità) per il parlante di processare frasi con embedding multiplo, come la seguente:
The rat the cat the dog chased killed ate the malt.
Cioè, tradotto in italiano: "Il topo, che è stato ammazzato dal gatto, che è stato inseguito dal cane, ha mangiato il malto".
Chomsky & Miller (1963: 286) dicono che questa frase è «[...] surely confusing and improbable but it is perfectly grammatical and has a clear and unambiguous meaning». Chomsky (1965: 11) distingue tra la competenza linguistica, la quale permette di gestire frasi potenzialmente infinite e la performance, la quale è limitata e imperfetta, per motivi esterni (quali la limitatezza della memoria a breve termine, la mancanza di tempo, ecc.). Chomsky quindi dà per scontato che un parlante qualsiasi ha la capacità di processare una frase di lunghezza e complessità illimitate, indipendentemente dalle sue capacità intellettive, formazione scolastica, provenienza etnico-culturale ecc. Tale capcità è limitata solo nella pratica da fattori non dipendenti dalla grammatica mentale.
Cioè, sia un professore universitario, sia uno scaricatore di porto saranno in grado di processare in modo corretto una frase come quella riportata poco sopra. Si noti che non c'è bisogno di capire il significato delle parole che compongono tale frase, né di conoscere la materia di cui si tratta. Prendiamo un altro esempio:
Certain neutrino-less decay modes are kinematically allowed but forbidden in the Standard Model.
Lo scaricatore di porto, pur non capendo affatto il significato di tale frase, cionondimeno sarà perfettamente in grado di giudicarne la grammaticalità, tanto quanto un fisico delle particelle. Chomsky pensa che questo sia autoevidente e non abbisogni di una dimostrazione rigorosa: «the core property of discrete infinity is intuitively familiar to every language user» (Hauser, Chomsky & Fitch 2002: 1571). I casi di effettiva incapacità dei parlanti di processare frasi troppo complesse vengono ascritti a fattori esterni al linguaggio. La competenza linguistica, egli dice, ci dà un insieme di regole ricorsive per formulare l'embedding; ma tale competenza non contiene alcuna regola che dica ai parlanti: "puoi fare solo tre embedding, poi fermati", e quindi il numero degli embedding è da considerarsi potenzialmente infinito.
In che senso lo stimolo è povero?
La competenza linguistica contiene un algoritmo, o grammatica, che in modo ricorsivo descrive la struttura delle frasi considerate corrette. I neonati non sanno parlare, mentre gli individui adulti sarebbero tutti equamente provvisti di tale capacità. Vi è quindi un momento nello sviluppo dell'individuo in cui tale capacità viene appresa o acquisita. Secondo Chomsky non possiamo ammettere che l'acquisizione avvenga per generalizzazione dello stimolo esterno, ossia creando la grammatica a partire dall'uso delle frasi effettive da parte delle persone che accudiscono il neonato. Questo perché lo stimolo è considerato povero. Secondo Pullum & Scholz (2002: 12–13) "povero" vuol dire
- imperfetto, disturbato, frammentario, incompleto, contenente errori e rimpensamenti, e, soprattutto, finito;
- privo di feedback (la madre non esprime un formale giudizio di grammaticalità sulla produzione linguistica dell'infante);
- privo di reinforcement (la madre non premia l'infante per la produzione linguistica corretta);
- privo di informazione negativa (la madre non spiega all'infante quali frasi sono agrammaticali, limitandosi a fornirgli quelle corrette).
Cioè, l’adulto non insegna la grammatica della propria lingua al bambino in modo esplicito e completo. Si limita a fornirgli alcune frasi grammaticali, ma non gli dà nessun’informazione su ciò che non è grammaticale. Eppure il bambino riesce ad acquisire la grammatica completa e perfetta di una lingua potenzialmente infinita, lo fa abbastanza velocemente, indipendentemente dalle condizioni storiche, sociali o culturali e convergendo verso la stessa identica grammatica degli altri individui.
Chomsky conclude che, essendo lo stimolo povero, ed essendo il caso che tutti gli individui acquisiscono il linguaggio in modo perfetto, una certa componente della grammatica deve essere presente nella mente umana fin dalla nascita (la GU); invece ciò che effettivamente si apprende dallo stimolo sono solo differenze superficiali tra le lingue storico-naturali. Cioè, in altre parole, la GU sarebbe innata.
Critiche all'APS di Chomsky
Definizione contraddittoria
L'APS è stato criticato da più parti e sotto più punti di vista. Vorrei qui mettere in evidenza una contraddizione che non ho finora incontrato nella letteratura esistente. La contraddizione è nascosta proprio nella definizione stessa dell'APS. Prendiamo il corpus di enunciati effettivamente eseguiti dai parlanti, su cui Chomsky concentra la sua attenzione. Cosa fa Chomsky con questo corpus? Lo usa per fare due affermazioni:
- Il corpus è ricco abbastanza da essere rappresentativo di un linguaggio in infinito; da esso si può “indurre” l’esistenza di un insieme potenzialmente infinito di frasi infinitamente complesse.
- Il corpus è troppo povero per poter essere l’input sufficiente per l’acquisizione di un linguaggio infinito.
Cioè, gli stessi dati empirici sono usati sia come prova che qualcosa è infinito, sia come prova che qualcosa è finito. Le stesse frasi sono considerate, allo stesso momento, sia “potenzialmente infinite” sia “troppo finite”. Unire in uno stesso ragionamento due affermazioni opposte genera, a mio avviso, una forte tensione concettuale, se non una vera e propria contraddizione. Di sicuro non trattasi di un buon metodo empirico. Tornando all’APS esposto sopra, i punti in contraddizione sarebbero il (3) e il (9). Di che tipo di contraddizione si tratta? Se l’APS fosse stato un ragionamento puramente logico-formale non ci sarebbe stato alcun problema. Se, ad esempio, le proposizioni (3) e (9) parlassero dei numeri di Fibonacci allora sarebbe stato corretto dire che (a) il loro insieme è infinito, e (b) la mera elencazione finita di tali numeri non è mai sufficiente per indurre tutto l'insieme. Questo perché i numeri di Fibonacci sono infiniti per definizione, mentre l’input è finito, anch’esso, per definizione. Infatti, per "insegnare" l’insieme di Fibonacci non elenchiamo i numeri ma ci serviamo di una definizione ricorsiva (che Chomsky chiamerebbe una grammatica).
Ora, l’APS di Chomsky non parla di numeri ma di un fenomeno naturale, rilevato empiricamente: si dà il caso che i parlanti sono in grado di giudicare la grammaticalità degli enunciati di una lingua. Non è, quindi, una questione logico-formale, ma piuttosto un’affermazione empirica. Le proposizioni empiriche non sono vere o false in assoluto, ma solo approssimabili all’essere vere/false nella misura in cui i dati empirici ce lo impongono. Le proposizioni (3) e (9) vengono date entrambe come vere. Tuttavia, i dati usati per sostenerle sono praticamente gli stessi, ossia quelli rappresentati dal corpus delle frasi effettivamente pronunciate. Eppure, le due affermazioni estrapolano i dati per fare due generalizzazioni opposte: una induce l’infinito, l’altra lo nega. I dati sono quindi usati in modo incoerente e contraddittorio. Questo, a mio avviso, rende impossibile, per le due proposizioni avere lo stesso grado di accettabilità empirica. Non si tratta di una falsità assoluta, e tutto dipende da quanto tolleriamo l'inaccuratezza nel trattare i dati empirici. Tuttavia non si può fare finta che l'impasse non esista.
Chomsky e Gold
Un indiscutibile merito di Chomsky consiste nell'aver introdotto nel dibattito scientifico il problema della learnability di un linguaggio. Esso è stato affrontato sotto molteplici punti di vista, incluso quello logico-formale. Un risultato fondamentale e molto citato è il Teorema di Gold sulla learnability, che consiste nel dire che, assumendo come strategia di apprendimento la cosiddetta identificazione nel limite (Gold 1967: 449), e considerando un input esclusivamente positivo, si dimostra l’esistenza di classi di linguaggi che l'apprendente non potrà imparare.
Spesso si cita Gold come la definitiva prova formale della congettura di Chomsky sull'innatezza. Pare che non sia il caso, però. Per cominciare, molto spesso il teorema viene citato in modo errato, con un'approssimazione tipica degli umanisti. Ad esempio cosı̀: «No known “general learning mechanism” can acquire a natural language solely on the basis of positive or negative evidence» (Hauser, Chomsky & Fitch 2002: 1577). Il concetto di "identificazione nel limite" di Gold non è affatto parafrasabile come “general learning mechanism” (questo e altri esempi simili sono discussi in Johnson 2004: §3). Inoltre, va riconosciuto che il modello di apprendimento immaginato da Gold è estremamente lontano da quello dell'acquisizione del linguaggio naturale. Ma soprattutto: Gold stesso, discutendo le possibili conseguenze del suo risultato, non nomina neanche l'innatismo (Gold 1967: §4). In altre parole, Gold dimostra ciò che dimostra, e non i postulati impressionistici di Chomsky. Non essendo io un logico, preferisco concludere condividendo le parole di un linguista che dice: «In fact, Gold’s theorem [does] not seem to have empirical relevance for linguistics, at least that I can see». Chi è lo studioso? È Noam Chomsky (2004: 176).
Quali conseguenze?
Cosa succederebbe se considerassimo falsa la congettura dell'innatezza del linguaggio, ossia la (10)? Ognuna delle proposizioni (1)–(9) andrebbe incontro al rischio di falsificazione. Ma questo non è un grosso guaio. Infatti, quelle che Chomsky considera come premesse indubitabili, in realtà non sono affatto così autoevidenti. Non possiamo approfondire la cosa in questa sede, per cui basti un breve elenco:
- Il primato della sintassi sulla semantica è una follia, che è stata più o meno abbandonata — tacitamente — da Chomsky stesso negli ultimi anni.
- La ricorsività infinita non è affato un postulato. A rigore, non possiamo esserne certi, proprio perché non sappiamo cosa possa succedere al ciclo ricorsivo n, con n tendente all'infinito. E poi, non è chiaro come mai dobbiamo considerare "importante" la competenza (suppostamente infinita) e "irrilevante" l'esecuzione, concretamente finita: e se il limite alla proliferazione dei cicli ricorsivi fosse imposto dal linguaggio stesso e non da fattori esterni?
- Che il parlante sia sempre in grado di giudicare la grammaticalità di una frase è abbastanza un'utopia. Nella realtà si tratta di uno di quegli sperimenti che è praticamente impossibile eseguire in modo unbiased. È stato dimostrato, ad esempio, che i giudizi di grammaticalità espressi dai linguisti differiscono in modo significativo dai giudizi dei non linguisti (vedi Dąbrowska 2010; Spencer 1973).
- Anche la convergenza di parlanti diversi verso la stessa grammatica non è un fatto dimostrato, prova ne siano gli studi sulla "quasi-grammaticalità" (Riemer 2009).
- Esiste una letteratura sterminata sul fatto che lo stimolo a disposizione del bambino non è affatto povero. Contiene sia elementi di informazione negativa, sia il reinforcement. Inoltre, non è affatto detto che, come afferma Chomsky, i bambini sbagliano in modo superificiale, ma non vanno contro i principi base della sintassi (vedi Ambridge, Rowland & Pine 2008)
- Infine, esiste una letteratura altrettanto sterminata sugli algoritmi di apprendimento statistico. Ossia: in assenza di un algoritmo preesistente e solamente dall'input esterno si può ben generalizzare un'approssimazione accettabile di una grammatica che permetta l'uso del linguaggio in una situazione normale (cfr. l'interessante contributo di Zuidema 2003). Anzi, il futuro della ricerca sull'intelligenza artificiale va esattamente in questa direzione, mentre l'approccio algoritmico alla Chomsky non ha mai prodotto una vera applicazione ingegneristica (nonostante le enormi aspettative dei primi tempi).
Riferimenti bibliografici
Ambridge, B., C. F. Rowland & J. M. Pine. 2008. “Is Structure Dependence an Innate Constraint? New Experimental Evidence From Children’s Complex-Question Production”. Cognitive Science 32: 222–255. [Download].
Behme, C. 2014. “A ‘Galilean’ science of language”. Journal of Linguistics 50 (3): 671–704. [DOI][Draft].
Behme, C., & V. Evans. 2015. “Leaving the myth behind: A reply to Adger (2015)”. Lingua 162: 149–159. [DOI][Draft].
Chomsky, N. 1965. Aspects of the Theory of Syntax. Cambridge, MA: MIT Press. [Google Books].
Chomsky, N. 1980. Rules and Representations. Oxford: Basil Blackwell. [Link editore].
Chomsky, N. 1988. Language and Problems of Knowledge. The Managua Lectures. Cambridge, MA: MIT Press. [Google Books].
Chomsky, N. 2004. The Generative Enterprise Revisited. Discussions with Riny Huybregts, Henk van Riemsdijk, Naoki Fukui, and Mihoko Zushi. Berlin: Mouton de Gruyter. [Google Books].
Chomsky, N. 2009. Of Minds and Language. A Dialogue with Noam Chomsky in the Basque Country. A cura di M. Piattelli-Palmarini, J. Uriagereka & P. Salaburu. Oxford: Oxford University Press. [Google Books].
Chomsky, N., & G. A. Miller. 1963. “Introduction to the formal analysis of natural languages”. In Handbook of mathematical psychology, a cura di R. D. Luce et al., 2: 269–321. New York: Wiley. [Download].
Clark, A., & S. Lappin. 2011. Linguistic Nativism and the Poverty of the Stimulus. Oxford: Wiley / Blackwell. [Google Books].
Dąbrowska, E. 2010. “Naive v. expert intuitions: An empirical study of acceptability judgments”. The Linguistic Review 27: 1–23. [DOI][Download].
Dąbrowska, E. 2015. “What exactly is Universal Grammar, and has anyone seen it?” Frontiers in Psychology 6: 852. [Open access].
Evans, V. 2014. The Language Myth: Why Language Is Not an Instinct. Cambridge: Cambridge Unviersity Press. [Google Books].
Gold, E. M. 1967. “Language identification in the limit”. Information and Control 10 (5): 447–474. [DOI].
Hauser, M. D., N. Chomsky & W. T. Fitch. 2002. “The Faculty of Language. What is it, who has it and how did it evolve?” Science 298: 1569–1579. [DOI][Download].
Johnson, K. 2004. “Gold’s Theorem and Cognitive Science”. Philosophy of Science 71: 571–592. [Download].
Karlsson, F. 2010. “Syntactic recursion and iteration”. In Recursion and Human Language, a cura di H. van der Hulst, 43–68. Berlin: DeGruyter / Mouton. [DOI] [Draft].
Levinson, S. C. 2014. “Pragmatics as the Origin of Recursion”. In Language and Recursion, a cura di F. Lowenthal & L. Lefebvre, 3–14. New York: Springer. [DOI][Google Books].
Lombardi Vallauri, E. 2004. “The relation between mind and language: The Innateness Hypothesis and the Poverty of the Stimulus”. The Linguistic Review 21: 345–387. [Download].
Lombardi Vallauri, E. 2012. “Il linguaggio è già nel cervello?” In Bioestetica, bioetica, biopolitica. Atti del Convegno 2011 del CODISCO, a cura di M. Graziano & C. Luverà, 235–246. Messina: Coordinamento dei dottorati italiani di scienze cognitive, Corisco. [Download].
Pullum, G. K., & B. C. Scholz. 2002. “Empirical assessment of stimulus poverty arguments”. The Linguistic Review 19: 9–50. [Draft].
Pullum, G. K., & B. C. Scholz. 2010. “Recursion and the infinitude claim”. In Recursion and Human Language, a cura di H. van der Hulst, 113–138. Berlin: DeGruyter / Mouton. [Draft].
Riemer, N. 2009. “Grammaticality as evidence and as prediction in a Galilean linguistics”. Language Sciences 31: 612–633. [DOI].
Sampson, G. 2005. The ‘Language Instinct’ Debate. London: Continuum. [Google Books].
Sampson, G. 2007. “There is No Language Instinct”. Ilha do Desterro 52: 35–63. [Versione online].
Spencer, N. 1973. “Differences between linguists and nonlinguists in intuitions of grammaticality–acceptability”. Journal of Psycholinguistic Research 2: 83–98. [DOI].
Zuidema, W. 2003. “How the poverty of the stimulus solves the poverty of the stimulus”. In Advances in Neural Information Processing Systems 15 (Proceedings of NIPS’02), a cura di S. Becker, S. Thrun & K. Obermayer, 51–58. Cambridge, MA: MIT Press. [Draft].
Per motivi tecnici non imputabili né all'autore né alla redazione i punti dell'elenco che dovevano apparire numerati con le lettere minuscole — 6a, 6b, 8a, 8b — appaiono numerati con i numeri.