Filosofia della psicologia cognitiva e psicologia cognitivista (parte prima)

Scarica PDF Stampa

 

Leggi anche la seconda parte di questo articolo al link: Filosofia della psicologia cognitiva e psicologia cognitivista (parte seconda).

 

Si veda anche, dello stesso autore: Filosofia cognitiva.

 

              Secondo la moderna psicologia cognitiva le relazioni causali tra concetti e rappresentazioni mentali hanno carattere computazionale piuttosto che associativo, questo comporta una concezione dell’architettura cognitiva di carattere modulare, in cui vi è un insieme di sottosistemi con proprie precise funzioni distinti e indipendenti tra loro, vi sono tuttavia discussioni sul senso e la misura di tale modularità (Chomsky, Mart, Fodor), nel caso della memoria a breve termine Baddely e Hitch proposero il concetto di memoria di lavoro quale sistema deputato all’elaborazione temporanea dell’informazione nei differenti compiti cognitivi, con al centro un sistema coordinatore, non vi è una unica identità bensì per ciascuna funzione, quale la memoria, funzioni via via più elementari che interagiscono fra loro unitariamente, il livello di scomposizione dei singoli moduli arriva fino a potere essere giudicato come psicologicamente primitivo.

              Le conoscenze o complesso di informazioni per ciascun modulo possono appartenere ad uno specifico dominio o avere carattere generale (generale per dominio), queste a loro volta possono avere un carattere interno inaccessibile all’introspezione come nell’ipotesi della teoria del linguaggio di Chomsky alla cui base vi è una struttura sintagmatica astratta, non identificabile in proprietà superficiali linguistiche facilmente identificabili, vi è pertanto un intreccio tra grammatica universale contenente parametri binari e lo sviluppo di una competenza linguistica attraverso l’assunzione di dati dall’ambiente linguistico, i meccanismi mediante i quali vengono elaborate le informazioni sono definiti anche come moduli computazionali, essendo i due tipi di moduli , quello chomskiamo e quello computazionale, compatibili tra loro.

              E’ stata avanzata l’ipotesi che non sempre a moduli chomskiani corrisponda un modulo computazionale, bensì che a domini specifici possano venire applicati sistemi computazionali generali, teoria definita da Samuels quale “modello della cognizione come biblioteca”, Fodor  tende a negare la modularità della cognizione centrale dove si formano credenze e concetti riducendola ad alcuni sistemi periferici computazionali specifici, tali moduli risultano isolati informativamente dal restante sistema cognitivo, in quanto l’accessibilità alle rappresentazioni fornite da tali moduli si riducono all’output senza che la coscienza possa accedere alle informazioni intermedie, inoltre l’isolamento cognitivo di tali moduli periferici avviene anche nel senso dell’incapsulamento informativo ossia della sua accessibilità esclusivamente alla propria base di dati.

              Tra i processi di elaborazione linguistica di basso livello che si ritiene essere guidati dallo stimolo e quelli di alto livello che sono dipendenti dal contesto, si pongono i processi intermedi dell’analisi linguistica e del riconoscimento lessicale per i quali non vi è una interpretazione unitaria ampiamente accettata, le ambiguità sintattiche possono essere risolte o facendo ricorso inizialmente a indici sintattici e solo successivamente ai fattori semantici (modularisti) o con un intreccio tra sintassi e semantica (interazionisti); per l’analizzatore sintattico che computa le relazioni grammaticali tra le parole si sono avanzate l’ipotesi di un impegno minimo con il rinvio della scelta al raggiungimento di maggiori informazioni, oppure un’elaborazione in parallelo tra tutte le possibilità, l’ipotesi più accreditata risulta essere tuttavia la teoria del “cammino a ritroso” di Frazier per cui non vi è un’informazione semantica bensì l’uso della sintattica delle parole secondo un modulo incapsulato, che implica la regola dell’attacco minimo, tale da generare la struttura sintagmatica più semplice possibile, a cui si affianca la regola della chiusura tardiva, la quale a sua volta implica che ogni nuovo elemento lessicale non va impiegato per creare un nuovo sintagma bensì attaccato, ove grammaticalmente possibile, al sintagma attualmente in elaborazione.

              Relativamente al riconoscimento lessicale Fodor traccia una distinzione tra associazioni lessicali e giudizi, immaginando una rete lessicale, formata da rapporti associativi fissi tra elementi lessicali, che sia parte della raccolta di dati propria del modulo preposto al riconoscimento lessicale, si ha pertanto che i vari risultati del riconoscimento lessicale nel contesto della frase non sono riconducibili a conoscenze di alto livello, bensì ad una automatica attivazione di parole collegate fra loro nella rete lessicale, viene quindi meno il presupposto per il quale delle semplici risposte “automatiche” vengano scambiate per “giudizi”, il contesto e la pertinenza sono le considerazioni che seguono ad un processo di disambiguazione che poggia su riconoscimenti lessicali incapsulati, Fodor specifica l’obbligatorietà e la rapidità del funzionamento modulare dovuta all’incapsulamento sulla propria banca dati, ma anche la danneggiabilità selettiva di un tale sistema circoscritto.

              Se la modularità è propria dei sistemi periferici lo stesso Fodor ritiene tuttavia non applicabile tale forma per i sistemi centrali propri dei processi cognitivi che presiedono al ragionamento, viene meno in questi ultimi il vincolo di formalità necessario per le proprietà sintattiche e che presiede alle possibilità computazionali delle transizioni di stato a cui è soggetta la sintassi, questo a fronte della indifferenza delle proprietà semantiche alla rigidità formale, ne consegue il carattere olistico dei processi centrali che possono così accedere a tutte le banche dati sparse per il sistema cognitivo.

              Il grado di conferma di una ipotesi dipenderebbe non solo dai suoi elementi intrinseci ma anche dalle caratteristiche olistiche della semplicità, centralità e conservatorismo proprie di un sistema globale, le modifiche accolte nell’ipotesi della necessità di un raccordo tra dati empirici e credenze tendono a ridurre al minimo la riconsiderazione relativa all’intero sistema, secondo un’inerzia che nel conservare tende a fare risparmiare energie al sistema cognitivo, Leslie propone un “meccanismo della teoria della mente” (ToMM – Theory of Mind Mechanism) fondato su tre differenti moduli computazionali, il To By (Theory of Body mechanism) o “meccanismo della Teoria dei corpi fisici” la quale stabilisce che se un oggetto è animato da cause interne o esterne, il ToMM1 che si occupa dell’interpretazione finalistica dell’agire di un agente e il ToMM2 che a sua volta cerca di spiegare il perché di tale azione dando un contenuto all’agire dell’agente, lo scopo e il perché (ToMM1 + ToMM2), costituiscono insieme il macromodulo computazionale (ToMM) relativo alle proprietà intenzionali dell’agente, nella sua centralità l’attivazione dello stesso avviene in termini concettuali e non percettivi, intendendo per concettuali anche gli input linguistici, sebbene incapsulati in ciascuna delle loro funzioni di comprensione intenzionale e di scopo.

              Partendo dal modello appena descritto di Leslie, nel quale To By e ToMM1 sono i precursori di ToMM2, Baron – Cohen ha ulteriormente scomposto le rappresentazioni che costituiscono l’input di ToMM nel “rilevatore della direzione dello sguardo” (EDD-Eye Direction Detector), nel “rilevatore di intenzionalità” (ID-Intentionality Detector) e nel”meccanismo dell’attenzione condivisa” (SAM – Shared Attention Mechanism) il quale identifica quando il soggetto ed una terza persona prestano attenzione sullo stesso oggetto, si crea pertanto un sistema interconnesso di meccanismi modulari e non modulari ovvero generali per dominio, con base di dati sia dedicate che non dedicate, in questa struttura a rete necessita un “elaboratore di selezione” capace di inibire le risposte automatiche nell’ipotesi di credenze false (Leslie – Thaiss), sostanzialmente ToMM viene a trovarsi all’interno di una architettura modulare moderatamente massiva, dove da livelli inferiori modulari si passa a livelli superiori che interagiscono in modo non modulare.

              Si pone il problema dell’errore logico e dell’irrazionalità umana, gli psicologi evoluzionisti sostengono che al fine della sopravvivenza della specie l’essere umano deve avere evoluto dei moduli che risolvono in termini normativamente corretti i problemi che si pongono, gli errori logici sono quindi dovuti a fattori extra logici che causano errori inferenziali i quali pertanto non sono errori di competenza ma di prestazione, questo presuppone tuttavia l’esistenza di innumerevoli sistemi computazionali che agiscono in modalità conforme alla razionalità (Cosmides – Tooby), nasce quindi il dubbio di una architettura mentale molto più complessa di quella finora prevista (Samuels – Stich – Tumoulet).

              Wilson ipotizza  l’esistenza di due sistemi, di cui il primo inconscio a fondamento di un comportamento non verbale, il secondo ampiamente cosciente principalmente teso ad esplicare gli impulsi provenienti dal primo sistema mediante ampie inferenze, tutte le informazioni in ingresso verrebbero codificate dalla mente dividendo oggetti interni come rappresentazioni mentali soggette ad elaborazioni, la rappresentazione della realtà che ne consegue è frutto quindi di una costruzione attiva di riduzione o di integrazione, in quanto l’informazione in ingresso può andare perduta ma può anche essere integrata, vi è una intenzionalità fondata su proprietà semantiche che saranno causa di altri stati intenzionali secondo modelli computazionali, gli stati intenzionali sono relazioni fra l’organismo e le rappresentazioni mentali esplicate mediante simboli di un linguaggio del pensiero che Fodor spiega con l’ipotesi “di un linguaggio del pensiero caratterizzato da una sintassi e una semantica combinatorie” (27, M. Marraffa, Filosofia della psicologia, Ed. Laterza, 2003), dove “il ragionamento deduttivo è tradizionalmente considerato il paradigma di un processo razionale” (32, Cit.), anche se la riduzione al solo ragionamento deduttivo appare eccessivamente costrittiva per le possibilità umane.

              Lo sviluppo di algoritmi sempre più complessi che portano ad imitare le funzioni cognitive umane, cercando di sostituire l’individuo, non solo nelle attività ripetitive ma anche nei servizi di alto livello, come l’analisi finanziaria, può condurre progressivamente alla creazione di quella “massa critica” di I.A. tale da esautorare l’individuo non solo dalle attività lavorative ma dalla stessa capacità critica, nel preciso momento nel quale l’essere umano perde la volontà di riflettere su se stesso e il desiderio di creare, riducendosi a puro elemento economico, modulo “passivo” di un sistema di accumulo e consumo dedito ai bisogni e agli istinti elementari, la “rete” prenderà progressivamente il sopravvento e l’I.A. si imporrà come un “Dio assoluto”, facendo perdere senso ai termini quali libertà, riflessione, giustizia, si delegherà il pensiero a sistemi sempre più complessi, nel tentativo di evitare gli errori insiti nella stessa biologia umana, ma nella ricerca di una perfezione efficientistica assoluta si rischia di perdere l’elemento della coscienza critica, abdicando dalla propria capacità riflessiva, fino ad arrivare ad un algoritmo che nel definire la giustizia ed il suo essere ci eviti di riflettere su di essa e sulla sua precarietà.

Dott. Sabetta Sergio Benedetto

Scrivi un commento

Accedi per poter inserire un commento