Natura innata del linguaggio secondo Noam Chomsky

/ Articolo / Natura innata del linguaggio secondo Noam Chomsky
  • Condividi

Nel post Moralità innata e universale Aldo Rustichini prendeva di mira lo scienziato infedele Marc Hauser (dimessosi dall'Università di Harvard) secondo il quale il sentimento morale sarebbe innato nell’essere umano, cioè codificato nel suo genoma. Come controesempio Rustichini citava l'ipotesi dell'innatismo del linguaggio, ipotesi che, questa sì, sarebbe stata dimostrata da Noam Chomsky. Io, da linguista, intervenivo facendo notare che l'ipotesi innatista di Chosmky è messa in forte dubbio da molti specialisti. In conclusione Michele Boldrin mi invitava a esporre le critiche a Chomsky in modo più organico, cosa che finalmente faccio.

Diciamo subito che contrapporre Chomsky a Hauser non è un argomento efficace perché i due si conoscono, si considerano alleati e insieme pubblicano articoli innatisti su Science (Hauser, Chomsky & Fitch 2002). Seppur con parole più evasive e caute Chomsky sembra aver incluso la moralità tra le capacità innate della mente umana già un decennio prima di Hauser (vedi Chomsky 1988: 152). In questa sede, invece, presenterò il cosiddetto Argomento della Povertà dello Stimolo (APS) con cui Chomsky afferma di aver dimostrato l'esistenza della cosiddetta Grammatica Universale (GU), intesa come la generale capacità — posseduta da ogni uomo e trasmessa per via genetica — di adoperare un linguaggio potenzialmente infinito (e non come la padronanza di una lingua storico-naturale, ad esempio l'italiano, l'inglese o il cinese). Cercherò di esporre in modo non troppo tecnico l'APS e di mostrare i suoi lati deboli. 

Acquisizione del linguaggio, povertà dello stimolo e innatismo

La letteratura anti-nativista è sterminata. Rimando gli interessati alla ricca bibliografia in Behme & Evans (2015: 151). Evans (2014) è un recentissimo volume che critica l'innatismo di Chomsky e che ha suscitato svariate polemiche. Un altro buon riassunto del problema è in Dąbrowska (2015). Si consiglia anche la lettura di Sampson (2005; 2007), Pullum & Scholz (2002; 2010) e Lombardi Vallauri (2004; 2012). Da parte mia, vorrei presentare una contraddizione, insita nell’argomento di Chomsky, che finora sembra essere passata inosservata.

Struttura dell'APS

L’idea del linguaggio innato risale alla famosa monografia di Chomsky Aspects of the Theory of Syntax (Chomsky 1965), mentre la prima formulazione esplicita dell’APS compare solo in Chomsky (1980). Trattazioni esaustive dell'APS si trovano oggi in Pullum & Scholz (2002) e in Clark & Lappin (2011), a cui rimando gli interessati. Qui di seguito riproduco il ragionamento di Chomsky sotto forma di una lista di proposizioni che rappresentano la struttura logica dell'APS.

  1. La componente più importante del linguaggio umano è la sintassi, ossia le regole che governano la costruzione di frasi a partire da parole e gruppi di parole. La semantica — il significato delle parole e delle frasi — è considerata secondaria rispetto alla sintassi e non determinante nella costruzione frasale.
  2. La sintassi è ricorsiva: unendo insieme due sintagmi (cioè “pezzi di frasi”) otteniamo un altro sintagma, e non un’entità di rango superiore. In particolare, ogni frase può ricorsivamente diventare un "pezzo di frase" di una frase più lunga. (Per contro: mettendo insieme dei suoni otteniamo delle parole, ossia entità di rango superiore ai suoni).
  3. Non vi è alcuna regola che ponga esplicitamente un limite ai cicli ricorsivi. Quindi le frasi formulabili possono avere lunghezza e complessità infinite (con la cardinalità di ℕ, infinito numerabile).
  4. Il parlante è sempre in grado di giudicare la grammaticalità di una sequenza di parole (nella propria lingua), cioè distinguere una frase corretta da una agrammaticale.
  5. Questa capacità non è limitata né da caratteristiche individuali del parlante (come età o istruzione), né dal fatto che le frasi siano illimitate quanto a lunghezza e complessità. Quindi, i parlanti convergono verso la medesima grammatica. Si noti che, invirtù della (1), il parlante esprime il giudizio di grammaticalità a prescindere dalla semantica della frase in esame, quindi può anche non capirne il senso ma tuttavia afferrarne la struttura sintattica (ad esempio, distinguere il soggetto dal predicato).
  6. I problemi che affronta il linguista sono due:
    1. Descrivere il meccanismo che rende possibile il giudizio di grammaticalità su un input potenzialmente infinito.
    2. Spiegare come tale meccanismo venga acquisito nella fase di apprendimento del linguaggio da parte del bambino.
  7. La risposta alla domanda (6a) è che il parlante non memorizza un mero elenco di frasi corrette (perché tale elenco sarebbe, in teoria, infinito, e in pratica già così enorme da non poter entrare nella memoria di nessuno). Ciò che il parlante fa è utilizzare un algoritmo che permette di calcolare la grammaticalità di una frase qualsiasi a partire da una serie finita di regole generative (che generano alcune strutture a partire da altre) e trasformazionali (che spostano le strutture generate da un punto a un altro della struttura frasale).
  8. Quanto alla domanda in (6b), l’apprendimento di questo algoritmo, o grammatica, può avvenire in due modi:
    1. generalizzando lo stimolo esterno (ossia ascoltando e le frasi prodotte dagli altri parlanti);
    2. oppure utilizzando una conoscenza innata (ossia riconoscendo nell'input alcune strutture e schemi che sono presenti nella mente fin dalla nascita).
  9. L'ipotesi (8a) dell’acquisizione della grammatica dallo stimolo esterno è esclusa perché tale stimolo sarebbe povero: nella comunicazione madre-figlio, durante l’apprendimento della lingua materna, la qualità e la quantità degli enunciati che sente il bambino sarebbe assai bassa. Inoltre è presente solo lo stimolo positivo, ma non quello negativo: il genitore parla al bambino con frasi corrette, ma non gli spiega come evitare quelle agrammaticali.
  10. Per esclusione deve essere vera l'ipotesi (8b): la grammatica, ovvero la sua componente più fondamentale e condivisa da tutte le lingue del mondo, chiamata quindi grammatica universale (GU), è innata nell’essere umano, cioè codificata nel suo corredo genetico e localizzata nel cervello al pari di un organo.

Riassunto breve: l’input esterno non è sufficiente al bambino per acquisire la grammatica di un linguaggio potenzialmente infinito, quindi la grammatica deve essere innata.

L’APS è presentato da Chomsky non come un fatto empirico, ma come un teorema dimostrato logicamente, in cui l’implicazione finale (10) consegue correttamente dalla congiunzione delle premesse. Per fare questo, egli presenta le premesse come delle verità autoevidenti, mentre in realtà sarebbero in gran parte empiriche. Praticamente ognuno dei punti qui elencati, in formulazioni più o meno analoghe, è stato oggetto di feroci critiche da parte di studiosi che studiano le tematiche ivi evocate in modo empirico (dagli psicologi dell’infanzia ai matematici specializzati nell'intelligenza artificiale). 

In che senso il linguaggio è infinito?

Cerchiamo di spiegare l'affermazione di Chomsky (2009: 25): «An elementary fact about the language faculty is that it is a system of discrete ininity». Per spiegarlo partiamo dal fenomeno dell’embedding delle relative, cioè la possibilità di inserire frasi relative dentro altre frasi, senza alcun limite teorico. Ad esempio, alla frase

 

Una ragazza, che Giovanni non aveva mai visto prima, è entrata nella stanza.

è possibile aggiungervi una seconda relativa, ottenendo un doppio embedding:

 

Una ragazza, che Giovanni, il quale notoriamente aveva una buona memoria, non aveva mai visto prima, è entrata nella stanza.

Frasi molto lunghe o con embedding superiore a tre livelli si incontrano come artifici letterari (cfr. la frase di 1077 parole, che si espande per ben sei pagine, nel romanzo Der Tod des Vergil di H. Broch, vedi Karlsson 2010: 46), ma sono di fatto assenti dall'uso naturale (vedi i dati in Levinson 2014). Chomsky stesso discute la difficoltà (se non l’impossibilità) per il parlante di processare frasi con embedding multiplo, come la seguente:

 

The rat the cat the dog chased killed ate the malt.

Cioè, tradotto in italiano: "Il topo, che è stato ammazzato dal gatto, che è stato inseguito dal cane, ha mangiato il malto".

Chomsky & Miller (1963: 286) dicono che questa frase è «[...] surely confusing and improbable but it is perfectly grammatical and has a clear and unambiguous meaning». Chomsky (1965: 11) distingue tra la competenza linguistica, la quale permette di gestire frasi potenzialmente infinite e la performance, la quale è limitata e imperfetta, per motivi esterni (quali la limitatezza della memoria a breve termine, la mancanza di tempo, ecc.). Chomsky quindi dà per scontato che un parlante qualsiasi ha la capacità di processare una frase di lunghezza e complessità illimitate, indipendentemente dalle sue capacità intellettive, formazione scolastica, provenienza etnico-culturale ecc. Tale capcità è limitata solo nella pratica da fattori non dipendenti dalla grammatica mentale.

Cioè, sia un professore universitario, sia uno scaricatore di porto saranno in grado di processare in modo corretto una frase come quella riportata poco sopra. Si noti che non c'è bisogno di capire il significato delle parole che compongono tale frase, né di conoscere la materia di cui si tratta. Prendiamo un altro esempio:

 

Certain neutrino-less decay modes are kinematically allowed but forbidden in the Standard Model.

Lo scaricatore di porto, pur non capendo affatto il significato di tale frase, cionondimeno sarà perfettamente in grado di giudicarne la grammaticalità, tanto quanto un fisico delle particelle. Chomsky pensa che questo sia autoevidente e non abbisogni di una dimostrazione rigorosa: «the core property of discrete infinity is intuitively familiar to every language user» (Hauser, Chomsky & Fitch 2002: 1571). I casi di effettiva incapacità dei parlanti di processare frasi troppo complesse vengono ascritti a fattori esterni al linguaggio. La competenza linguistica, egli dice, ci dà un insieme di regole ricorsive per formulare l'embedding; ma tale competenza non contiene alcuna regola che dica ai parlanti: "puoi fare solo tre embedding, poi fermati", e quindi il numero degli embedding è da considerarsi potenzialmente infinito.

In che senso lo stimolo è povero?

La competenza linguistica contiene un algoritmo, o grammatica, che in modo ricorsivo descrive la struttura delle frasi considerate corrette. I neonati non sanno parlare, mentre gli individui adulti sarebbero tutti equamente provvisti di tale capacità. Vi è quindi un momento nello sviluppo dell'individuo in cui tale capacità viene appresa o acquisita. Secondo Chomsky non possiamo ammettere che l'acquisizione avvenga per generalizzazione dello stimolo esterno, ossia creando la grammatica a partire dall'uso delle frasi effettive da parte delle persone che accudiscono il neonato. Questo perché lo stimolo è considerato povero. Secondo Pullum & Scholz (2002: 12–13) "povero" vuol dire

  • imperfetto, disturbato, frammentario, incompleto, contenente errori e rimpensamenti, e, soprattutto, finito;
  • privo di feedback (la madre non esprime un formale giudizio di grammaticalità sulla produzione linguistica dell'infante);
  • privo di reinforcement (la madre non premia l'infante per la produzione linguistica corretta);
  • privo di informazione negativa (la madre non spiega all'infante quali frasi sono agrammaticali, limitandosi a fornirgli quelle corrette).

Cioè, l’adulto non insegna la grammatica della propria lingua al bambino in modo esplicito e completo. Si limita a fornirgli alcune frasi grammaticali, ma non gli dà nessun’informazione su ciò che non è grammaticale. Eppure il bambino riesce ad acquisire la grammatica completa e perfetta di una lingua potenzialmente infinita, lo fa abbastanza velocemente, indipendentemente dalle condizioni storiche, sociali o culturali e convergendo verso la stessa identica grammatica degli altri individui.

Chomsky conclude che, essendo lo stimolo povero, ed essendo il caso che tutti gli individui acquisiscono il linguaggio in modo perfetto, una certa componente della grammatica deve essere presente nella mente umana fin dalla nascita (la GU); invece ciò che effettivamente si apprende dallo stimolo sono solo differenze superficiali tra le lingue storico-naturali. Cioè, in altre parole, la GU sarebbe innata.

Critiche all'APS di Chomsky

Definizione contraddittoria

L'APS è stato criticato da più parti e sotto più punti di vista. Vorrei qui mettere in evidenza una contraddizione che non ho finora incontrato nella letteratura esistente. La contraddizione è nascosta proprio nella definizione stessa dell'APS. Prendiamo il corpus di enunciati effettivamente eseguiti dai parlanti, su cui Chomsky concentra la sua attenzione. Cosa fa Chomsky con questo corpus? Lo usa per fare due affermazioni:

  1. Il corpus è ricco abbastanza da essere rappresentativo di un linguaggio in infinito; da esso si può “indurre” l’esistenza di un insieme potenzialmente infinito di frasi infinitamente complesse.
  2. Il corpus è troppo povero per poter essere l’input sufficiente per l’acquisizione di un linguaggio infinito.

Cioè, gli stessi dati empirici sono usati sia come prova che qualcosa è infinito, sia come prova che qualcosa è finito. Le stesse frasi sono considerate, allo stesso momento, sia “potenzialmente infinite” sia “troppo finite”. Unire in uno stesso ragionamento due affermazioni opposte genera, a mio avviso, una forte tensione concettuale, se non una vera e propria contraddizione. Di sicuro non trattasi di un buon metodo empirico. Tornando all’APS esposto sopra, i punti in contraddizione sarebbero il (3) e il (9). Di che tipo di contraddizione si tratta? Se l’APS fosse stato un ragionamento puramente logico-formale non ci sarebbe stato alcun problema. Se, ad esempio, le proposizioni (3) e (9) parlassero dei numeri di Fibonacci allora sarebbe stato corretto dire che (a) il loro insieme è infinito, e (b) la mera elencazione finita di tali numeri non è mai sufficiente per indurre tutto l'insieme. Questo perché i numeri di Fibonacci sono infiniti per definizione, mentre l’input è finito, anch’esso, per definizione. Infatti, per "insegnare" l’insieme di Fibonacci non elenchiamo i numeri ma ci serviamo di una definizione ricorsiva (che Chomsky chiamerebbe una grammatica).

Ora, l’APS di Chomsky non parla di numeri ma di un fenomeno naturale, rilevato empiricamente: si dà il caso che i parlanti sono in grado di giudicare la grammaticalità degli enunciati di una lingua. Non è, quindi, una questione logico-formale, ma piuttosto un’affermazione empirica. Le proposizioni empiriche non sono vere o false in assoluto, ma solo approssimabili all’essere vere/false nella misura in cui i dati empirici ce lo impongono. Le proposizioni (3) e (9) vengono date entrambe come vere. Tuttavia, i dati usati per sostenerle sono praticamente gli stessi, ossia quelli rappresentati dal corpus delle frasi effettivamente pronunciate. Eppure, le due affermazioni estrapolano i dati per fare due generalizzazioni opposte: una induce l’infinito, l’altra lo nega. I dati sono quindi usati in modo incoerente e contraddittorio. Questo, a mio avviso, rende impossibile, per le due proposizioni avere lo stesso grado di accettabilità empirica. Non si tratta di una falsità assoluta, e tutto dipende da quanto tolleriamo l'inaccuratezza nel trattare i dati empirici. Tuttavia non si può fare finta che l'impasse non esista.

Chomsky e Gold

Un indiscutibile merito di Chomsky consiste nell'aver introdotto nel dibattito scientifico il problema della learnability di un linguaggio. Esso è stato affrontato sotto molteplici punti di vista, incluso quello logico-formale. Un risultato fondamentale e molto citato è il Teorema di Gold sulla learnability, che consiste nel dire che, assumendo come strategia di apprendimento la cosiddetta identificazione nel limite (Gold 1967: 449), e considerando un input esclusivamente positivo, si dimostra l’esistenza di classi di linguaggi che l'apprendente non potrà imparare. 

Spesso si cita Gold come la definitiva prova formale della congettura di Chomsky sull'innatezza. Pare che non sia il caso, però. Per cominciare, molto spesso il teorema viene citato in modo errato, con un'approssimazione tipica degli umanisti. Ad esempio cosı̀: «No known “general learning mechanism” can acquire a natural language solely on the basis of positive or negative evidence» (Hauser, Chomsky & Fitch 2002: 1577). Il concetto di "identificazione nel limite" di Gold non è affatto parafrasabile come “general learning mechanism” (questo e altri esempi simili sono discussi in Johnson 2004: §3). Inoltre, va riconosciuto che il modello di apprendimento immaginato da Gold è estremamente lontano da quello dell'acquisizione del linguaggio naturale. Ma soprattutto: Gold stesso, discutendo le possibili conseguenze del suo risultato, non nomina neanche l'innatismo (Gold 1967: §4). In altre parole, Gold dimostra ciò che dimostra, e non i postulati impressionistici di Chomsky. Non essendo io un logico, preferisco concludere condividendo le parole di un linguista che dice: «In fact, Gold’s theorem [does] not seem to have empirical relevance for linguistics, at least that I can see». Chi è lo studioso? È Noam Chomsky (2004: 176).

Quali conseguenze?

Cosa succederebbe se considerassimo falsa la congettura dell'innatezza del linguaggio, ossia la (10)? Ognuna delle proposizioni (1)–(9) andrebbe incontro al rischio di falsificazione. Ma questo non è un grosso guaio. Infatti, quelle che Chomsky considera come premesse indubitabili, in realtà non sono affatto così autoevidenti. Non possiamo approfondire la cosa in questa sede, per cui basti un breve elenco:

  • Il primato della sintassi sulla semantica è una follia, che è stata più o meno abbandonata — tacitamente — da Chomsky stesso negli ultimi anni.
  • La ricorsività infinita non è affato un postulato. A rigore, non possiamo esserne certi, proprio perché non sappiamo cosa possa succedere al ciclo ricorsivo n, con n tendente all'infinito. E poi, non è chiaro come mai dobbiamo considerare "importante" la competenza (suppostamente infinita) e "irrilevante" l'esecuzione, concretamente finita: e se il limite alla proliferazione dei cicli ricorsivi fosse imposto dal linguaggio stesso e non da fattori esterni?
  • Che il parlante sia sempre in grado di giudicare la grammaticalità di una frase è abbastanza un'utopia. Nella realtà si tratta di uno di quegli sperimenti che è praticamente impossibile eseguire in modo unbiased. È stato dimostrato, ad esempio, che i giudizi di grammaticalità espressi dai linguisti differiscono in modo significativo dai giudizi dei non linguisti (vedi Dąbrowska 2010; Spencer 1973).
  • Anche la convergenza di parlanti diversi verso la stessa grammatica non è un fatto dimostrato, prova ne siano gli studi sulla "quasi-grammaticalità" (Riemer 2009).
  • Esiste una letteratura sterminata sul fatto che lo stimolo a disposizione del bambino non è affatto povero. Contiene sia elementi di informazione negativa, sia il reinforcement. Inoltre, non è affatto detto che, come afferma Chomsky, i bambini sbagliano in modo superificiale, ma non vanno contro i principi base della sintassi (vedi Ambridge, Rowland & Pine 2008)
  • Infine, esiste una letteratura altrettanto sterminata sugli algoritmi di apprendimento statistico. Ossia: in assenza di un algoritmo preesistente e solamente dall'input esterno si può ben generalizzare un'approssimazione accettabile di una grammatica che permetta l'uso del linguaggio in una situazione normale (cfr. l'interessante contributo di Zuidema 2003). Anzi, il futuro della ricerca sull'intelligenza artificiale va esattamente in questa direzione, mentre l'approccio algoritmico alla Chomsky non ha mai prodotto una vera applicazione ingegneristica (nonostante le enormi aspettative dei primi tempi).

Riferimenti bibliografici

Ambridge, B., C. F. Rowland & J. M. Pine. 2008. “Is Structure Dependence an Innate Constraint? New Experimental Evidence From Children’s Complex-Question Production”. Cognitive Science 32: 222–255. [Download].

Behme, C. 2014. “A ‘Galilean’ science of language”. Journal of Linguistics 50 (3): 671–704. [DOI][Draft].

Behme, C., & V. Evans. 2015. “Leaving the myth behind: A reply to Adger (2015)”. Lingua 162: 149–159. [DOI][Draft].

Chomsky, N. 1965. Aspects of the Theory of Syntax. Cambridge, MA: MIT Press. [Google Books].

Chomsky, N. 1980. Rules and Representations. Oxford: Basil Blackwell. [Link editore].

Chomsky, N. 1988. Language and Problems of Knowledge. The Managua Lectures. Cambridge, MA: MIT Press. [Google Books].

Chomsky, N. 2004. The Generative Enterprise Revisited. Discussions with Riny Huybregts, Henk van Riemsdijk, Naoki Fukui, and Mihoko Zushi. Berlin: Mouton de Gruyter. [Google Books].

Chomsky, N. 2009. Of Minds and Language. A Dialogue with Noam Chomsky in the Basque Country. A cura di M. Piattelli-Palmarini, J. Uriagereka & P. Salaburu. Oxford: Oxford University Press. [Google Books].

Chomsky, N., & G. A. Miller. 1963. “Introduction to the formal analysis of natural languages”. In Handbook of mathematical psychology, a cura di R. D. Luce et al., 2: 269–321. New York: Wiley. [Download].

Clark, A., & S. Lappin. 2011. Linguistic Nativism and the Poverty of the Stimulus. Oxford: Wiley / Blackwell. [Google Books].

Dąbrowska, E. 2010. “Naive v. expert intuitions: An empirical study of acceptability judgments”. The Linguistic Review 27: 1–23. [DOI][Download].

Dąbrowska, E. 2015. “What exactly is Universal Grammar, and has anyone seen it?” Frontiers in Psychology 6: 852. [Open access].

Evans, V. 2014. The Language Myth: Why Language Is Not an Instinct. Cambridge: Cambridge Unviersity Press. [Google Books].

Gold, E. M. 1967. “Language identification in the limit”. Information and Control 10 (5): 447–474. [DOI].

Hauser, M. D., N. Chomsky & W. T. Fitch. 2002. “The Faculty of Language. What is it, who has it and how did it evolve?” Science 298: 1569–1579. [DOI][Download].

Johnson, K. 2004. “Gold’s Theorem and Cognitive Science”. Philosophy of Science 71: 571–592. [Download].

Karlsson, F. 2010. “Syntactic recursion and iteration”. In Recursion and Human Language, a cura di H. van der Hulst, 43–68. Berlin: DeGruyter / Mouton. [DOI] [Draft].

Levinson, S. C. 2014. “Pragmatics as the Origin of Recursion”. In Language and Recursion, a cura di F. Lowenthal & L. Lefebvre, 3–14. New York: Springer. [DOI][Google Books].

Lombardi Vallauri, E. 2004. “The relation between mind and language: The Innateness Hypothesis and the Poverty of the Stimulus”. The Linguistic Review 21: 345–387. [Download].

Lombardi Vallauri, E. 2012. “Il linguaggio è già nel cervello?” In Bioestetica, bioetica, biopolitica. Atti del Convegno 2011 del CODISCO, a cura di M. Graziano & C. Luverà, 235–246. Messina: Coordinamento dei dottorati italiani di scienze cognitive, Corisco. [Download].

Pullum, G. K., & B. C. Scholz. 2002. “Empirical assessment of stimulus poverty arguments”. The Linguistic Review 19: 9–50. [Draft].

Pullum, G. K., & B. C. Scholz. 2010. “Recursion and the infinitude claim”. In Recursion and Human Language, a cura di H. van der Hulst, 113–138. Berlin: DeGruyter / Mouton. [Draft].

Riemer, N. 2009. “Grammaticality as evidence and as prediction in a Galilean linguistics”. Language Sciences 31: 612–633. [DOI].

Sampson, G. 2005. The ‘Language Instinct’ Debate. London: Continuum. [Google Books].

Sampson, G. 2007. “There is No Language Instinct”. Ilha do Desterro 52: 35–63. [Versione online].

Spencer, N. 1973. “Differences between linguists and nonlinguists in intuitions of grammaticality–acceptability”. Journal of Psycholinguistic Research 2: 83–98. [DOI].

Zuidema, W. 2003. “How the poverty of the stimulus solves the poverty of the stimulus”. In Advances in Neural Information Processing Systems 15 (Proceedings of NIPS’02), a cura di S. Becker, S. Thrun & K. Obermayer, 51–58. Cambridge, MA: MIT Press. [Draft].

Indietro

Commenti

Ci sono 75 commenti

Per motivi tecnici non imputabili né all'autore né alla redazione i punti dell'elenco che dovevano apparire numerati con le lettere minuscole — 6a, 6b, 8a, 8b — appaiono numerati con i numeri.

Molto interessante, grazie: non ero aggiornato sull'argomento, sono fermo ad anni fa ed ero abbastanza alla base. Mi restano un paio di dubbi, il più evidente sull'affermazione " in assenza di un algoritmo preesistente e solamente dall'input esterno si può ben generalizzare un'approssimazione accettabile di una grammatica che permetta l'uso del linguaggio in una situazione normale"

Il dubbio è: come si passa dall'input esterno ad una grammatica senza regole per decidere come organizzare l'input?
Mi spiego meglio: il bambino associa le parole per stimolo. Poi passeràa ad associazioni come "mamma pappa" quando ha fame e "mamma cacca" quando deve fare altro.
Per insegnargli la frase "mamma voglio pappa" occorre spiegargli il concetto di "volere" o "azione" e per questo occorre qualche regola. Queste dove le prende?
Ovviamente non parliamo di grammatica universale, quanto di strutture basilari. Non so se sono chiaro, o forse è stato escluso per chiarezza, ma questo pezzo mi manca. 

Quello che chiedi appartiene alla semantica, anziché alla sintassi. Chomsky espressamente esclude la semantica dalla sua analisi (nella Teoria Standard; in quelle successive ha gradualmente abdicato a se stesso). Quando dice che il bambino ha una grammatica innata intende cose del tipo "sapere che due sintagmi possono costituire un sintagma più grande". 

Su come si formano i concetti nei bambini ci sono degli studi appositi. Non sono un esperto del campo, ma direi che bisognerebbe chiamare in causa il vituperato behaviorismo: il bambino, e in generale gli esseri umani, imparano il significato delle parole perché vedono le conseguenze pratiche di tali parole sul comportamento dei loro simili. Ad esempio, quando impari una lingua straniera e incontri una parola nuova, la prima cosa che fai è andarla a cercare su un dizionario. Però spesso questa informazione non ti basta: quello che ti manca è un'esperienza d'uso, cioè sapere in quali circostanze e con quali conseguenze tale parola è stata utilizzata in riferimento a tale oggetto reale.

se sembra di trovare peli nelle uova, ma il suo ragionamento fa grinze macroscopiche.

Mi soffermo sull'imputare a (insieme di premesse di APS una velata o svelata contraddizione.

 

/beg quote

 

  1. Il corpus è ricco abbastanzada essere rappresentativo di un linguaggio in infinito; da esso si può “indurre” l’esistenza di un insieme potenzialmente infinito di frasi infinitamente complesse.

  2. Il corpus ètroppo poveroper poter essere l’input sufficiente per l’acquisizione di un linguaggio infinito.

/end quote

 

l'errore se mi consente e' il tradizional difetto dell'equivoco

il corpus1 non induce nulla (e' un insieme di frasi), la teoria dice che il corpus e' un infinita' discreta (l'idea e' di Galilei e di Humboldt, non di Chomsky)

 

il corpus2 e' un insieme finito di frasi-stimolanti (se uno usasse il linguaggio degli apprendimenti: l'insieme i cui membri sono frasi a cui un non parlante viene esposto)

per il corpus2 la poverta' consiste nel fatto che manca (e Chomsky suggeri', non puo' che mancare) tutte le proprieta' strutturali.

nel breve periodo, senza rientrare nel casino di cosa sia "innato" (a mio modesto avviso la morale non c'entra nulla) la contraddizione che lei imputo' e' fumo negli occhi delle persone che leggono.

 

Su questa cosa lo so che rimarremo in disaccordo. Rispondo a beneficio degli altri lettori, anche perché in un post troppo corto non si potevano esplicitare tutti i dettagli.

Cosa significa che il corpus-1 "è" un'infinità discreta? L'infinito non esiste in natura. In natura esiste un numero molto alto, ma finito, di frasi. Queste frasi non sono di complessità infinita, ma anzi molto finita. Chomsky dice: possiamo prendere una frase qualsiasi e saremo in grado di giudicarne la grammaticalità. Quali sono le prove di questa affermazione? Chomsky risponde: è noto a tutti che sia così. Ora, a me è noto proprio il contrario: prendiamo una frase troppo complessa e non saremo in grado di giudicarne la grammaticalità. Chomsky risponde: chi se ne frega, sono limitazioni della performance. Allora io concludo: se nel suo famoso metodo galileiano non vale il principio di falsificabilità, allora effettivamente mi taccio per sempre.

Una parte del ragionamento che ho dovuto eliminare riguardava proprio questo problema: quali sono le frasi di cui non siamo in grado di giudicare la grammaticalità? Chomsky dice: prendiamo una frase palesemente insensata (le solite "idee verdi che dormono furiosamente") e, pur non capendone il significato referenziale, possiamo dire che si tratta di una frase grammaticalmente corretta. Obiezione: capiamo frasi del genere solo perché sappiamo da altre fonti (dizionario) che "idee" è un sostantivo, "dormono" è un verbo, "verdi" e "furiosamente" sono i relativi modificatori. Cioè, la semantica e la morfologia ci costruiscono la struttura sintattica, non viceversa.

Per fare un esperimento serio Chomsky avrebbe dovuto prendere una frase fonologicamente inglese ma lessicalmente fittizia. Molto meglio, a tale scopo, è il "Pirots karulize elatically" di Carnap: si tratta di parole inesistenti, e noi comprendiamo la struttura sintattica solo dall'ortografia e dalla morfologia. Però, prendendo solo i suoni, la sequenza trascritta da Carnap come karulize (verbo in -ize, 3 persona plurale) potrebbe invece essere trascritta come karulies (3 persona singolare, simile a multiplies): in tal caso la struttura sintattica cambia radicalmente. Oppure peggio ancora: possiamo scrivere karulise che allora diventa un sostantivo (come enterprise).

Ergo: la sintassi non è autonoma perché dipende dalla semantica (suggerita, in questo caso, dall'ortografia). E quindi tutto l'ambaradan, innatismo incluso, va a farsi benedire.

Mi sembra che ci sia un grosso equivoco.
Non seguo l'argomento da anni ma ricordo diverse letture (soprattutto Steven Pinker) una ventina di anni fa. Non è che sia innato il linguaggio in se' o la grammatica in quanto tale. È geneticamente codificata la presenza di aree e strutture celebrali deputate al linguaggio (questo spero non sia contestato) ed in questo ambito è innata (geneticamente predisposta) l'abilità a imparare un linguaggio già nei primi anni di vita. Così come puo' essere innata l'abilità a gattonare prima e camminare eretti poi, succhiare il latte e cose del genere.

Diversamente dovremmo presumere che la nostra mente alla nascita sia una sorta di tabula rasa scolpita dalla sola esperienza, teoria che ritengo nessuno studioso della mente umana oggi possa oggettivamente ritenere credibile. Un bambino puo' imparare qualsiasi lingua, dai genitori. È questa abilità ad essere innata e si poggia su strutture che definirei meta-grammaticali. Non metterei sintassi e semantica in antitesi e non discuterei sulla prevalenza di una sull'altra. Entrambe concorrono allo scopo di imparare cosa viene detto e come viene detto.  Che poi Chomsky o altri per cercare di definire questo istinto del linguaggio abbiano scritto cose contraddittorie e/o non dimostrate, ciò nulla toglie al fatto che la genetica sia profondamente coinvolta nella costruzione fisica delle aree del linguaggio, nell'abilità dell'apprendimento e (qui il punto cardine) nell'abilità di comprendere il significato di quello che si ascolta e come imparare a dirlo.

Abbiamo anche un gene (foxp2) che è coinvolto direttamente nella abilità linguistica e nella capacità di applicare le regole grammaticali". Insomma il linguaggio non è solo cultura, è anche genetica. La genetica darebbe diverse predisposizioni. Tra cui quella di imparare le lingue, che come è noto riesce piu' facile ad alcuni individi che ad altri (alle donne, proprio per la maggire attività di foxp2).

Abbiamo per esempio l'abilità di inventare termini come "petaloso" :-) ma abbiamo ceppi familiari che per problemi genetici non sono in grado di giocare con le parole. Non sanno inventarle. Chi ha figli (ed ora anche nipoti) conosce la loro abilità di inventare parole introducendole pero' in contesti grammaticali corretti. La cosa piu' incredibile è stata vedere un bambino di due anni parlare già bene due lingue (italiano e russo) senza fare confusione (a seconda della persona che aveva davanti, usava la lingua giusta per farsi capire). Ed ora a 5 non solo è in grado di tradurre nelle due lingue (ha costruito un ponte tra le due unendo i vocaboli) ma inizia a riconoscere se quello che sente è in una terza lingua (inglese). Frutto di una tabula rasa o di una predisposizione genetica? Vedo la sorella, stesso ambiente ma geni al 50% differenti, è  diversa. Parla bene una sola lingua e l'altra mi dicono che non la parla così bene come il fratello alla stessa età. Mi pare che gli studi sull'istinto del linguaggio siano propri partiti dallo studio di fratelli (stessa famiglia, diversi geni) messi a confronto con i gemelli monozigoti (stessi geni e qualche volta famiglie diverse).

Discussione lunga ...

...dice cose molto sensate, ha detto benissimo quello che intendevo dire, ma non sono riuscito a dire, riguardo a "qualcosa di simile a una struttura grammaticale innata".

FF for President!

Su FOXP2 ti cito Chomsky e associati:

 

«this gene is nearly identical in form to a homologous gene in other mammals, and the consequences of its expression are not specific to speech or language» (Fitch, Hause & Chomsky (2005: 190).

 

Quanto al tuo rifiuto della tabula rasa, si tratta di discorsi un po' generici, e un po' tautologici: tutto quello che siamo è in qualche modo predisposto dalla genetica. Difficile negarlo, in effetti. Ma di sicuro tutti questi discorsi sono fortemente non chomskyani, quindi un po' fuori dall'argomento principale del post. Chomsky espressamente dice che: il linguaggio è la sintassi (e non la semantica), la sintassi è un organo del cervello, è innata e non è comparsa per selezione naturale, bensì per un'unica mutazione in un singolo individuo preistorico (sic!).

Su Pinker: è un divulgatore di successo, che però non dice nulla di nuovo rispetto al suo guru (in realtà di recente ci ha pure litigato).

Infine, la visione organicista del funzionamento del cervello è una possibile teoria, tra tante. Io non sono uno specialista. Ma mi sento di dire che non posso assumere come assioma il fatto che l'area di Broca e quella di Wernicke siano le localizzazioni esatte del linguaggio solo perché nella prima guerra mondiale i lesionati in quelle aree non riuscivano a parlare. È un approccio al cervello estremamente semplificatorio e organicistico, non più preso sul serio al giorno d'oggi (credo, ma sono pronto a essere smentito).

Talvolta qui compaiono articoli come questo che escono da tema economico e sono sempre interessanti. Trovo che la tesi di Chomsky nella forma di Forti sia facile da accogliere, ma in effetti non chomskiana. Chomsky va molto oltre il dire che siamo geneticamente predisposti al linguaggio. Egli dice che questa predisposizione non può consistere in altro che in struttre grammaticali innate, e quindi che tra le componenti innate, istintuali, deve esserci qualcosa che somiglia a una grammatica (GU).
Questo genera non poche domande filosofiche. Una grammatica, anche la minima, anche il più piccolo sottoinsieme di essa, è una struttura logica con regole formali. Sarebbe come dire che codificata nei geni c'è non la "predisposizione" ad imparare l'aritmetica, che è facile da accettare, ma proprio la tabellina del tre, oppure il teorema di Pitagora. 
E salendo in complessità il teorema di Cauchy o l'integrale di Lebesgue.

Non sono in grado di portare un contributo significativo, ma (chiedendo perdono ai lettori) porto una osservazione forse banale, forse fuori luogo, che da tempo avevo nella chiorba e non esternai mai.
Ci sono molte strutture cognitive, negli uomini e negli animali, che si apprendono con troppa facilità perché l'apprendimento possa avvenire per solo tramite dello stimolo esterno, secondo lo schema classico del Gavagai di Quine che descrive l'apprendimento del linguaggio tramite l'ipotesi del linguista.
Deve esserci una qualche "predisposizione", è evidente, ma quella predisposizione è un qualcosa che pare impossibile da classificare come "istinto", perché presuppone strutture cognitive complesse, e soprattutto già mature.

Osservando la facilità e la rapidità con cui il mio giovane cane da caccia imparava il riporto, mi domandai come fosse possibile. La risposta scontata "ce l'ha nell'istinto" infatti era insoddisfacente. Il riporto è un comportamento che non ha scopo per l'animale, se non è inserito in un gruppo con degli umani e non gli è assegnato uno specifico ruolo. Può solo essere insegnato, quindi, e per di più da un essere appartenente ad una specie diversa. 
Ma mi era evidente, osservandolo, come il mio insegnamento fosse quasi superfluo.
Era come se l'animale stesse riconoscendo qualche cosa che sapeva già. Come se ricordasse.
La (vaga) conclusione che ne trassi è che forse i ricordi in qualche modo si possono trasmettere. E tra i ricordi possono essere anche strutture cognitive complesse: può starci anche il teorema di Pitagora. Sarebbe quindi possibile, per esagerare, che un professore di matematica delle medie, che ha ripetuto alla lavagna il teorema di Pitagora per migliaia di volte, figlio di un altro professore di matematica che pure lo aveva ripetuto per migliaia di volte, figlio di.. eccetera, poi trasmetta la conoscenza dormiente del teorema di Pitagora a suo figlio, e lo renda capace di impararlo in un baleno quando gli sarà presentato.
Perché lo riconoscerà.

Ma questo è poco "scientifico", quindi poco interessante, me ne rendo conto.
Se la conoscenza del linguaggio viene trasmessa in qualche modo e una sua componente (GU) diviene innata, allora la parte interessante è descrivere questa GU.
Cioè delimitare l'insieme enumerando i suoi elementi, alla maniera di Venn.
L'autore dice che {GU} contiene cose tipo "sapere che l'unione di due sintagmi produce un altro sintagma". Che altro c'è?

La domanda è pertinente, ma è difficile rispondervi brevemente. Bisogna guardare l'evoluzione del Generativismo di Chomsky negli anni. Inizialmente egli poneva come innata una grammatica pericolosamente simile a quella inglese. Poi, negli anni 80, rendendosi conto che la stragrande maggioranza delle lingue non si lasciavasse descrivere facilmente in quei termini, ha proposto l'idea dei parametri: di innato ci sono i parametri, possibilmente binari (tipo: l'oggetto va prima del verbo/dopo il verbo), e l'apprendente decide per l'uno o per l'altro valore alla prima occorrenza che sente (essendo binario può essere indotto da un'unica occorrenza). In realtà, non funzionava bene neanche così, per cui, nei suoi scritti degli ultimi anni lui dice espressamente: di innato c'è SOLO il cosiddetto merge, ossia, in pratica, la capacità di formare sintagmi in modo ricorsivo. Stop. Rimando a Fitch, Hauser & Chomsy (2005: 204):

 

[…] our hypothesis postulating that, at a minimum, FLN [= Faculty of Language in the Narrow sense] consists of the core computational capacities of recursion […]

 

P.S. Da quanto mi hanno detto, il riporto è effettivamente un istinto: quando un branco di lupi va a caccia e trova una preda, il capobranco viene nutrito per primo dagli altri lupi, che gli portano la preda.

 

Talvolta qui compaiono articoli come questo che escono da tema economico e sono sempre interessanti. Trovo che la tesi di Chomsky nella forma di Forti sia facile da accogliere, ma in effetti non chomskiana.

 

Non conosco l'evoluzione del pensiero di Chomsky ma immagino che sia partito da ipotesi iniziali come quella che mi pare ragionevole sostenere per arrivare a posizioni "Dure" (per non dire Forti, che genererebbe confusione) così come è noto che ci sono nel campo della IA ci sono ipotesi "strong", "weak" e "normal".

Io comunque non ritengo inizialmene verosimile la tesi in una GU e dovrei approfondire per avere idee precise a  riguardo ma reputo verosimile una sorta di meta-grammatica. Non tanto quindi la posizione effettiva di verbi, soggetti, aggettivi, avverbi ed altri e la declinazioni possibili sul genere, sul tempo verbale etc, ma la capacità di riconoscere (e quindi catalogare, memorizzare) i singoli elementi (questo è un verbo, questo è un oggetto, ...) per capire cosa viene detto e imparare in seguito a ripeterlo. In questa ipotesi la mente sarebbe predisposta a riconoscere le meta-strutture del linguaggio. Non so se Chomsky intende questo per GU ma per i ricordi delle letture di Pinker (questo, questo e questo) io ritengo che l'idea dell'istinto linguaggio come frutto della selezione genetica sia assolutamente verosimile.

cosa o chi mostra che non esista l'infinito in natura?

tralascio le scemenze su cosa sia la natura, essendo troppo facile il sarcasmo.

 

si noti prima di avventurarsi in idiozie scaffalate di fanghiglia tipica degli accademici, che non esistono prove negative di nulla (e' ammissibile aver il sospetto che non esista babbo natale, la distinzione tra la lingua e la parola, l'anima, dio, shiva, la zia di andreotti con tre gambe; e' tutt'altro asserire che cio' si sa, essendo la consocenza quel tipo di stato che implica la verita', ergo se chiccessia sa che f, ne segue F <=> F e' vero)

Se non mi permette di dire che l'infinito non esiste, allora mi spieghi cosa significano le parole di Chomsky

 

«the core property of discrete infinity is intuitively familiar to every language user» (Hauser, Chomsky & Fitch 2002: 1571)

 

Io sono un language user ma non potrei mai dire che per me l'infinito discreto è intuitively familiar. 

cio' che m'affascina e' l'inchiostro versato su un argomento inane ed imbelle.

Il modesto avviso del sottoscritto e' per n chi abbia le ubbie di mostrare le fallacie dell'innatsimo, e' di considerare J A Fodor (il quale e' innatista per davvero.)

Per  il resto son chiacchere.

La sua afasia, pur non impedendole di usare il turpiloquio, non l'aiuta certo a rendere più chiaro il pensiero. Cita Fodor come esempio di fallacia o come dimostrazione dell'innatismo?

Quanto alla quantità di inchiostro versato su un argomento inane mi trova perfettamente d'accordo: Chomsky ha perso svariati anni/uomo a difendere questa scemenza, che non gli compete né gli è necessaria ai fini della sua ricerca.

1) per gli amministratori: tra i correlati manca il riferimento a  Moralità innata e universale di Aldo Rustichini, a cui questo post di Artemio si riferisce cone naturale proseguimento.

2) fortunatamente c'è invece quello a "Ogni ditra ha milenato il fiommo (25 gennaio 2009)" che ricordavo ed ho riletto volentieri.

Ed a questo post rimando perché vi sono argomenti ancora validi e che magari andrebbero aggiornati, se ci sono stati sviluppi nella ricerca.

Cito per esempio:

 

Con 30 parametri costituiti da scelte binarie, il numero di grammatiche possibili sarebbe 2^30. Un bambino dovrebbe imparare a scegliere quella corretta fra circa un miliardo di sintassi. Viene naturale chiedersi dunque se non esistano nel cervello dei "vincoli" neurologici che prevengano l'apprendimento di grammatiche "impossibili", per facilitare l'apprendimento del linguaggio.

 

e poi...

 

Dopo avergli insegnato la regola, il soggetto viene sottoposto alla visione di alcune frasi, chiedendogli di spingere un bottone dopo aver deciso se la frase segue o meno la regola suggerita, il tutto durante l'amministrazione di risonanza magnetica cerebrale. L'idea è innanzitutto di vedere se l'apprendimento di regole "possibili" avviene più velocemente di quello di regole "impossibili". Ma soprattuto di vedere se l'apprendimento di regole impossibili attiva porzioni diverse della corteccia cerebrale.

 

Il resto lo leggete nell'articolo, che allora fu di Andrea Moro.

Il fatto che regole impossibili stentino ad affermarsi, malgrado la notevole plasticità del cervello, potrebbe anche dipendere dall'età dei soggetti dell'esperimento (la plasticità è massima tra nei primi anni di vita) ma considerato che tra gli adulti ci sono comunque soggetti che apprendono facilmente le lingue ed altri che hanno molte difficoltà, l'ipotesi di una predisposizione genetica rimane. Ma che dire della GU?

Per questa, farei un salto nel passato di 200'000 anni, quando si stima sia "nato" il moderno homo sapiens-sapiens e quando (questa l'ho appena trovata) si stima sia sorta una mutazione in foxp2. Se è vero che il gene (e la relativa proteina) è comune a diverse specie, bastano una o due basi mutate per avere uno o due aminoacidi diversi nella proteina. Il che puo' in alcuni casi non implicare alcun vantaggio/svantaggio ma, sul piano probabilistico, anche un grave difetto come un vantaggio significativo.

In ogni caso pare che la nostra stirpe sia passata per una strettoia genetica molto forte (al limite dell'estinzione) quindi non è del tutto inverosimile che le poche migliaia di persone da cui originiamo abbiano parlato la stessa lingua ed avuto una comune grammatica, allora facilitata da una particolare e singolare predisposizione.

Poi in queste centinaia di migliaia di anni di migrazioni le lingue si sono diversificate a causa di effetto paragonabile alla deriva genetica e su cui Luca Cavallo Sforza ha investigato a lungo proprio per trovare indizi linguistici da affiancare ai modelli di genetica delle popopolazioni (cosa che 40 anni era la mia migliore propspettiva di studio ed anche il miglior esame all'UNI).

Si legga ad esempio Geni, Popoli e Lingue (GPL).

Luca Cavalli Sforza sarà pure un genetista bravo (non ne ho le prove, ma può essere), ma come linguista è penoso. Semplicemente non ha capito di che si tratta. Una cosa su tutte: la parentela linguistica non implica nulla né sulla storia delle migrazioni, né sulla cultura materiale, né sull'etnicità, né sull'archeologia. Come il metodo comparativo-ricostruttivo insegna, l'indoeuropeo è una formula, non una popolazione o lingua. (Purtroppo lo dimenticano anche alcuni linguisti, ma non per questo diventa meno vero).

Quanto agli esperimenti di A. Moro, come dice lei stesso sono alquanto interpretabili. Ma soprattutto, regole grammaticali come quelle che lui considera "impossibili" di fatto esistono. Ad esempio, la Legge di Wackernagel, comune a molte lingue indoeuropee.

eliminate le sciocchezze e le imbecillita' accademiche.

1. esiste una teoria innatista? sono rarissime e l'unica persona, a mia conoscenza, che e' innatista e' J A Fodor (molti dei suoi lavori indicano implicitamente quale sia il suo argomento che e' solidissimo [se esiste l'apprendimento, esso risponde a dati che non sono appresi], non e' pubblico. pneso lo sara', tra non molto. nel caso interessi posso anche ardimentosamente spiegare di che cosa si tratti, avendo a che fare con concetti e non con lingue o linguaggi.

2. nel caso di Chomsky praticamente nulla e' innato tranne quel che e' innato, vale a dire le severamente ristrette capacita' di cui la persona neonata e' dotata. Vi sono due aspetti du queste capacita', un aspetto e' la riduzione delle possibilita' induttive (traduzione: visto quel che ho udito esistono affidabili generalizzazioni che producono una cosa simile ad una regola generativa? esempio italiano, udii che maria mangia la banana e che con un tono di voce diverso le domande si fanno con 'e' maria c he mangia la banana?' regola proposta "mettere e' prima della frase" [la regola e' sbagliata, esercizio per i deficienti, perche'?, indizio, ergo tra le restrizioni cosidette innate sta quella di non osservare ordini di sequenze] , secondo aspetto di capacita' innate, pomposamente detto creativita', date pochissime regole e un lessico minuscolo la generazione di una infinita' di frasi.

 

 

3. infinita'. Di nuovo le imecillita' aumentano, so che vi son coloro che dubitano dell'esistenza dell'infinito, i tapini non han letto leopardi, nemmeno cantor [sarcasmo]- le proprieta' dell'inifnito che contano nel caso del linguaggio sono due e solo due (lasciate stare il problema della metafisica della matematica, perche' e' indipendente, non in-interessante, e' indipendente dal groviglio di storie intorno al linguaggio.)

numero uno (aka 1) il linguaggio ha un'infinita' discreta (Chomsky in questo caso ha scoperto nulla, ha osservato cio' che Cordemoy, Humboldt, Panini, et al. gia' sapevano.) Una infinita' discreta (esempio: su una metrica lineare prendete tutti gl iinteri su una retta geometrica, ergo a "sinistra" di -7 sta -8, etc.) ha la proprieta' seguente: nulla sta tra un punto e l'altro, ergo tra -7 e -8 non si da -7.77. Si puo' osservare che potrebbe essere una particolarita' della linea, di essere forata a intervalli regolari, quel che non viene osservato e' che li linguaggio abbia la medesima proprieta;: non esiste una frase di 3,7 parole e se non v'aggradan le frasi, non esiste parola fatta di 5,9 fonemi (domanda per i curiosi: perche'?)

Che dei minus habens manchino dell'intuizione cosciente di questa proprieta' e' l'argomento per gli ignavi che meritano l'inferno (si noti che nessuno intuisce nulla sui fermioni, che tuttavia stan li e se fanno un baffo con lo stantuffo delle intuizioni dei professori di lettere.) Quel che e' interessante e' che sia o meno presente la cosidetta intuzione (ad ese. citato dsa hauser etc.) nessuno forma una frase di 6,7 parole (perche'?)

numero due (aka 2) il cosidetto corpus e' una stronzata inventata dai cacciatori di farfalle blue ocn l'elmo coloniale. Esso non esiste, in due sensi: e' comunque esso siapotenzialmente infinito, nessuno mai spiego' quale sia il numero di frasi italiani che esiste (continua a crescere menter scribacchio) e nessuno mai spiego' quale numero esistera'.

se l'infinito in questione vada interpretato in senso attuale o potenziale, me lo chiedete un altro giorno che devo parlare coi cammellieri che mi portano a nfa giornate. sul tema consiglio ARISTOTLE, fisica, libro terzo e metafisica (passim) ma meglio in libro 9 sul tema "piccolezza"-

 

la mezza dozzina (aka 6) composta dai lettori, notera' che i problemi a cui tanto sudore venne donato (se la gallina conta fino a 8, se il delfino fino a quattro, se il aretmio conta fino a nove e mai olter) dai biologisti da strapazzo sono irrilevanti. che il parlante/scrivente/ascoltante tenga "a mente" o memorizzi 8, 18, 69 frasi e' affatto irrilevante. L'osservazione dei linguisti e' che anche nel corso di un periodo breve (una vita umana, grossomodo sempre inferiore  strettamente ai 55000 giorni) le frasi che vengono incontrate per la prima volta sono pre-ponderanti, se ne avete dubbio, il che potrebbe ben esser legittimo, controllate introspettivamente se avete visto frasi come quelle di questo post, e se avete difficolta' a sapere che sono italiane, mentre e del che i globi e le costellazioni si dolgono, mai comprenderete quel che significano...

unico punto a ritenere le famose 8 cose che si possono (possano?) guardare insieme sono irrilevanti all'infinito, il che non e' gran sorpresa ma in italia tutto e' sorprendente

...e non senza qualche timore, azzardo qualche osservazione a questa interessante discussione. Lo faccio con lo spirito dell'uomo della strada che non ha alcuna preparazione per affrontare argomenti in questo campo scientifico.

Per deformazione professionale sono portato a cercare risposte sperimentali alle tesi che mi trovo a dover avvallare o confutare. Leggendo la sintesi della teoria innatista, cosi' come proposta in questo articolo, mi sono ritrovato ad interrogarmi su quali risposte fornisce ai (fortunatamente rari) casi di individui la cui crescita e' stata privata di stimoli educativi al linguaggio. Penso al Victor narrato dal film di Truffaut come ad altri casi di Feral Children. Con una ricerca superficiale non ho trovato commenti a questi casi da parte degli innatisti (mi si conceda la semplificazione).

A partire dall'esperimento di Psamtik sono stati diversi i tentativi di ricercare per via sperimentale le origini del linguaggio fino ad Atkinson. E' corretto pensare che vi possa essere una relazione tra gli studi antropologici e quelli linguistici o e' solo una abbaglio colossale, prodotto da chi (come me) non ne capisce un 'acca?

Questa cosa di Atkinson, che però non c'entra con l'innatismo, ha fatto molto rumore. Una rivista ha dedicato un volume intero al problema posto dalla sua ipotesi:

Linguistic Typology 15.2 (2011)

Il principale problema è che l'autore, sebbene in buona fede, ha commesso due errori: ha preso dei dati di cui non è esperto e, inoltre, ha scambiato una correlazione spuria per una vera. Il suo non essere linguista l'ha portato a non sapere bene come si contano i fonemi, per cui ha, ad esempio, contato come fonemi separati ogni combinazione di tipo "vocale+tono" che nelle lingue africane abbondano; lo stesso ha fatto con i clicks, sempre nelle lingue africane (vedi qui), contando come unità a sé stante vari clusters di consonante+click. Questo ha aumentato notevolmente i repertori fonologici africani. Inoltre, aveva a disposizione le mappe linguistiche dell'Africa e dell'Europa, solo che in Europa perlopiù un paese contava una lingua (i dialetti venivano ignorati), mentre in Africa i dati erano molto più fitti (lì i confini tra le lingue raramente coincidono con i confini nazionali). Insomma, facendo i conti così torna qualsiasi cosa.

Le piante contano. Vedere qui. E di sicuro se contano non è perché mamma o papà hanno preso la piccola piantina sulle ginocchia e le hanno spiegato come si fa.

Scherzi a parte, nell'uomo (sapiens) noi insegnamo a contare ma questo si innesca su una base comune a tutti gli esseri viventi. Interessante sarebbe conoscere come si sviluppa questo mix tra base genetica e informazione appresa. Che vale per tantissime cose. Anche per il linguaggio.
Rigetto sia chi tende all'innatismo al 100% sia chi insegue l'ideologia opposta.

Un vantaggio della sua sensatissima posizione, che credo sia quella di gran lunga prevalente fra i ricercatori, è che motiva a cercare sia i fenomeni genetici rilevanti sia la loro combinazione coi processi di apprendimento, ovviamente pure rilevanti per molte specie oltre alla nostra.

La contrarietà di Keidan e di altri agli aspetti innati, quale che sia il grado di sofisticazione intellettuale di tale contrarietà, invece può giustificare una mancanza di curiosità al riguardo.

Trovo incredibile che ci sia ancora chi tende a negare, mettere in dubbio o minimizzare a priori il peso dei geni nei nostri processi cognitivi, mentre mi sembra che nessuno minimizzi il peso dei processi di apprendimento.

sembra dare almeno parziale supporto alle tesi di Artemij. 

L'articolo di Scientific American a cui mi riferisco non sembra il massimo della chiarezza, nondimeno c'è abbastanza materiale per rimettere in discussione la delimitazione fra ciò che è innato e ciò che è appreso o "inventato". Soprattutto, mi sembra vi sia abbondante evidenza per mettere in discussione l'idea secondo cui ciò che è innato era ciò di cui Chomsky ed i suoi collaboratori più stretti hanno descritto sino a poco tempo fa. 

Interesting, visto che per quasi 40 anni l'esistenza di un "language istinct" descrivibile come "model/principles & parameters" era uno delle poche cose che davo per acquisite nello studio del comportamento umano :(