Il mito del genio solitario

Il mito del genio solitario affonda le sue radici in una lunga tradizione culturale occidentale, che ha idealizzato la figura dell’individuo eccezionale, capace di raggiungere vette inarrivabili grazie a un’intelligenza straordinaria e a una dedizione assoluta alla sua vocazione. Questa visione trova una delle sue prime espressioni nel concetto rinascimentale di “uomo universale” o “homo universalis”, incarnato da figure come Leonardo da Vinci e Michelangelo, celebrate per la loro capacità di eccellere in molteplici campi del sapere e dell’arte.
Con l’avvento dell’Illuminismo, l’idea del genio solitario si lega sempre più strettamente a una concezione razionalistica e progressiva della conoscenza, secondo cui il cammino della scienza sarebbe guidato da pochi individui illuminati, capaci di sovvertire dogmi e superstizioni con la forza del loro intelletto. Figure come Galileo Galilei e Isaac Newton diventano emblemi di questa visione, rappresentati come eroi solitari che sfidano l’ortodossia e rivoluzionano la comprensione del mondo con le loro scoperte.

È tuttavia nel corso dell’Ottocento che il mito del genio solitario trova la sua consacrazione definitiva, sullo sfondo delle profonde trasformazioni sociali ed economiche innescate dalla Rivoluzione industriale. L’ascesa della borghesia e l’affermazione del capitalismo contribuiscono a plasmare una nuova figura di individuo, l’imprenditore visionario che grazie al suo talento e alla sua determinazione riesce a trasformare la realtà e a imporre la sua visione del mondo. Thomas Edison, con la sua celebre invenzione della lampadina elettrica, diventa l’archetipo di questa nuova generazione di “eroi” solitari, capaci di rivoluzionare interi settori industriali con la forza delle loro idee.

Il mito del genio solitario permea così l’immaginario collettivo, dalle biografie agli aneddoti popolari, dai film ai libri di self-help, alimentando una visione eroica e romantica della creatività umana. Questa narrativa ricalca gli archetipi della favola e del viaggio dell’eroe, in cui l’individuo eccezionale affronta e supera ostacoli insormontabili grazie alle proprie doti straordinarie, emergendo vittorioso e trasformato.

Tuttavia, tale rappresentazione tende a relegare il resto del mondo ad un ruolo sostanzialmente passivo nei processi di cambiamento. La società, la cultura, le istituzioni appaiono come semplice sfondo o al più come antagonisti delle gesta del genio, che si fa portatore in esclusiva di innovazione e progresso.
Si trascura così il carattere intrinsecamente collettivo e collaborativo dell’impresa scientifica e tecnologica, che richiede l’apporto di molteplici competenze, il confronto tra idee diverse, la condivisione di risorse e infrastrutture. L’esaltazione acritica del genio solitario rischia di oscurare il contributo essenziale di intere comunità e generazioni di ricercatori, tecnici, artigiani, così come il ruolo abilitante del contesto socioeconomico, politico e culturale.

Decostruire il mito: limiti e contraddizioni

Nonostante la sua pervasività nell’immaginario collettivo, il mito del genio solitario presenta una serie di problematicità e distorsioni, che sono state messe in luce da un corpo crescente di ricerche in ambito storico, sociologico e psicologico. In questa sezione, ci concentreremo su tre aspetti critici: la semplificazione fuorviante dei processi creativi, la sottovalutazione del ruolo dei contesti sociali e la legittimazione di gerarchie e disuguaglianze.
In primo luogo, come evidenziato da numerosi studi sulla storia e la sociologia della scienza, il mito del genio solitario tende a ridurre il progresso scientifico e tecnologico al frutto di lampi di genio isolati, trascurando la natura incrementale, cumulativa e collettiva dei processi di scoperta e innovazione (Kuhn, 1962; Latour, 1987). Le grandi rivoluzioni scientifiche, lungi dall’essere il prodotto di menti eccezionali che operano nel vuoto, sono in realtà l’esito di complesse catene di collaborazione, scambio e competizione tra molteplici attori e istituzioni.
Prendiamo ad esempio il caso di Isaac Newton, spesso considerato l’archetipo dello scienziato solitario e geniale. Come mostrato dallo storico della scienza Steven Shapin, le scoperte di Newton non furono affatto il frutto di un’illuminazione isolata, ma l’esito di un intenso confronto con altri scienziati dell’epoca, come Robert Hooke e Christiaan Huygens, nonché del lavoro di generazioni precedenti di matematici e filosofi naturali. Newton stesso riconobbe il suo debito verso i “giganti” sulle cui spalle poté salire per vedere più lontano, suggerendo una visione molto più collaborativa e incrementale del progresso scientifico.
In secondo luogo, il mito del genio solitario tende a sottovalutare il ruolo cruciale dei contesti sociali, economici e culturali nel plasmare le traiettorie individuali e collettive dell’innovazione. Come evidenziato dalla sociologia della scienza e della tecnologia, le grandi scoperte e invenzioni sono sempre profondamente radicate in specifici ambienti istituzionali, reti di relazioni e sistemi di valori, che ne influenzano la genesi, lo sviluppo e la diffusione.
Si pensi al caso di Thomas Edison e della sua invenzione della lampadina elettrica. Lungi dall’essere il frutto di un colpo di genio isolato, il successo di Edison fu reso possibile da una vasta rete di collaboratori, finanziatori e istituzioni, nonché da condizioni socioeconomiche e tecnologiche favorevoli, come la crescente domanda di illuminazione elettrica e la disponibilità di materiali e competenze adeguate. Il celebre laboratorio di Menlo Park, spesso descritto come un “luogo di invenzione” individuale, era in realtà una fabbrica di innovazione collettiva, in cui decine di persone lavoravano in modo coordinato sotto la guida di Edison.
Infine, il mito del genio solitario tende a legittimare e perpetuare gerarchie e disuguaglianze sociali, oscurando il ruolo dei privilegi e delle barriere strutturali nel determinare il successo individuale. Come evidenziato da diversi studi sulla stratificazione sociale nella scienza e nell’innovazione, l’accesso alle opportunità e alle risorse cruciali per l’eccellenza creativa è spesso condizionato da fattori come il genere, l’etnia, la classe sociale o le reti di affiliazione, che favoriscono sistematicamente alcuni gruppi a scapito di altri.
Emblematico in questo senso è il caso di Rosalind Franklin, la cristallografa britannica che fornì contributi decisivi alla scoperta della struttura del DNA, ma il cui ruolo fu a lungo oscurato a favore di quello dei suoi colleghi maschi, James Watson e Francis Crick, che ricevettero il premio Nobel per la medicina nel 1962. La storia di Franklin, come quella di molte altre scienziate e inventrici, mette in luce come il mito del genio solitario possa contribuire a perpetuare discriminazioni e pregiudizi, relegando nell’ombra figure cruciali per il progresso della conoscenza.

Come detto, negli ultimi decenni, il mito del genio solitario ha trovato nuove declinazioni nell’ambito di quella che in tanti hanno cominciato a definire “tecno-aristocrazia digitale“, con figure come Bill Gates, Steve Jobs, Elon Musk, Jeff Bezos, Mark Zukenberg. La loro immagine, spesso ricalcata su quella degli eroi ottocenteschi, è quella di “visionari” e “innovatori”, capaci di anticipare e plasmare il futuro con le loro intuizioni e la loro determinazione.
Eppure, anche in questi casi, una lettura più attenta del loro percorso rivela i limiti di una visione puramente individualistica del successo e dell’innovazione. Bill Gates e Steve Jobs, ad esempio, pur essendo indubbiamente dotati di talento e di carisma, non avrebbero potuto realizzare le loro imprese senza il contributo di una vasta rete di collaboratori, partner e investitori, e senza poter contare su un ecosistema favorevole di tecnologie, standard e mercati in rapida espansione.
Elon Musk, spesso dipinto come un imprenditore visionario e audace, in realtà beneficia di ingenti sussidi pubblici e di una vasta rete di fornitori e subappaltatori per realizzare i suoi progetti, dal lancio di razzi spaziali alla produzione di auto elettriche. La sua azienda di neurotecnologie Neuralink, presentata come una “frontiera” della simbiosi tra intelligenza umana e artificiale, si basa in realtà su ricerche e tecnologie sviluppate da decenni nella comunità scientifica.
Jeff Bezos, celebrato come il “re del commercio elettronico”, deve il suo successo non solo alle sue indubbie capacità manageriali e alla sua visione strategica, ma anche a una serie di contingenze storiche e di vantaggi competitivi, come la possibilità di vendere libri sottocosto e in perdita grazie agli immani capitali raccolti dai fondi di investimento e in borsa poi, la possibilità di eludere le imposte attraverso il giusto schema societario, la possibilità di sfruttare ingenti fondi per sostituire con le macchine la manodopera sottopagata e alienata guidata dalle AI nei suoi centri di distribuzione e via dicendo.
Questa rassegna storica, necessariamente incompleta e schematica, mostra come il mito del genio solitario, pur assumendo forme diverse nel corso del tempo, presenti alcune costanti e alcune implicazioni ricorrenti. In primo luogo, esso tende a semplificare e a distorcere i processi reali di scoperta e di invenzione, riconducendoli all’azione provvidenziale di pochi individui isolati, e oscurando il ruolo cruciale dei contesti sociali, economici e tecnologici in cui operano.
In secondo luogo, esso veicola una visione elitaria e antidemocratica della conoscenza e dell’innovazione, presentandole come appannaggio di pochi “geni” naturali, piuttosto che come il frutto di un impegno collettivo e di un’intelligenza diffusa e coltivabile. Questa visione, oltre a essere storicamente e psicologicamente infondata, ha effetti diseducativi e demotivanti, scoraggiando la partecipazione e la fiducia nelle proprie capacità.
In terzo luogo, il mito del genio solitario si lega spesso a una concezione riduttiva e unidimensionale dell’intelligenza stessa, identificata con poche abilità astratte e decontestualizzate, come la logica, la matematica o la creatività “esplosiva”.
Questa concezione, a lungo dominante nella psicologia e nell’educazione, è oggi messa in discussione da un numero crescente di ricerche e di prospettive teoriche, che suggeriscono una visione più articolata e multiforme delle nostre facoltà mentali. Come vedremo nella prossima sezione, questa narrativa dominante presenta una serie di criticità e di implicazioni problematiche, che ne richiedono una decostruzione critica. In particolare, essa tende a semplificare in modo fuorviante processi in realtà molto più complessi e multidimensionali, oscurando il ruolo cruciale dei contesti sociali e delle dinamiche collettive nel plasmare le traiettorie individuali e i percorsi di scoperta e innovazione.

Intelligenze multiple e modelli alternativi

Uno dei contributi più significativi alla messa in discussione del mito del genio solitario viene dalla teoria delle intelligenze multiple, elaborata dallo psicologo Howard Gardner a partire dagli anni ‘80. Secondo questa prospettiva, l’intelligenza non è un’entità unitaria e monolitica, ma un insieme di abilità cognitive distinte e relativamente indipendenti, che si manifestano in diversi domini di attività e di esperienza.
Gardner identifica inizialmente sette forme fondamentali di intelligenza: linguistica, logico-matematica, spaziale, musicale, cinestetica, interpersonale e intrapersonale. A queste, in seguito, ne aggiunge altre, come l’intelligenza naturalistica e quella esistenziale. Ciascuna di esse rappresenta un modo specifico di elaborare le informazioni e di interagire con il mondo, e può essere più o meno sviluppata in un individuo, indipendentemente dalle altre.
Questa visione pluralista dell’intelligenza ha implicazioni profonde per la comprensione delle differenze individuali e per la pratica educativa. Se le nostre abilità cognitive non sono riducibili a un unico fattore generale, ma si articolano in una molteplicità di dimensioni relativamente autonome, allora non ha senso valutare e classificare gli individui sulla base di test standardizzati e unidimensionali, che ne appiattiscono e ne oscurano la specificità. Al contrario, occorre sviluppare approcci valutativi e didattici più flessibili e personalizzati, che sappiano riconoscere e valorizzare la varietà dei talenti e delle inclinazioni di ciascuno studente.

La teoria di Gardner ha così aperto la strada a una rivoluzione copernicana nella psicologia e nella pedagogia, sfidando decenni di pratiche e di assunti basati sul primato del QI e sulla fede nel talento innato. Numerosi studi e applicazioni, in diversi contesti educativi e professionali, hanno mostrato come un approccio “multi-intelligente” possa promuovere un apprendimento più significativo e motivante, migliorare i risultati scolastici e lavorativi, e favorire lo sviluppo integrale della persona, al di là delle sue abilità strettamente cognitive.
Tuttavia, anche la teoria delle intelligenze multiple non è esente da limiti e criticità. Alcuni autori ne hanno messo in discussione il fondamento empirico, osservando come le diverse intelligenze identificate da Gardner non siano sempre chiaramente distinguibili sul piano psicometrico o neurobiologico, e come la loro indipendenza sia più un postulato teorico che un dato di fatto. Altri hanno evidenziato i rischi di un uso semplicistico e stereotipato della teoria, che riduca gli individui a “profili” rigidi e deterministici, o che giustifichi forme di separazione e di gerarchizzazione tra gli studenti sulla base delle loro presunte “intelligenze dominanti”.

Nonostante questi limiti, la teoria di Gardner ha avuto il merito di aprire un dibattito fecondo sulla natura e sulla misura dell’intelligenza umana, stimolando la ricerca di modelli più complessi e articolati, capaci di rendere conto della variabilità e della plasticità delle nostre facoltà cognitive. Tra questi, un posto di rilievo spetta alle teorie della cognizione “incarnata” e “situata”, che mettono in luce il ruolo cruciale del corpo, dell’ambiente e delle interazioni sociali nei processi di apprendimento e di problem solving.
Secondo queste prospettive, l’intelligenza non è una proprietà astratta e disincarnata della mente, ma emerge dall’intreccio dinamico tra percezione, azione e cognizione, in cui il corpo funge da interfaccia attiva e creativa con il mondo. Le nostre abilità cognitive, lungi dall’essere confinate nel cervello, sono distribuite e “incorporate” nelle reti di relazioni e di artefatti che ci circondano, e si sviluppano attraverso l’esperienza concreta e situata dell’organismo nell’ambiente.

Un esempio classico di questa visione è offerto dagli studi sulla “cognizione nelle pratiche” degli antropologi Jean Lave ed Etienne Wenger. Osservando l’apprendimento di mestieri come la sartoria o la lavorazione del legno in contesti tradizionali, essi hanno mostrato come le abilità e le conoscenze si acquisiscano non tanto attraverso l’istruzione formale e la trasmissione di regole astratte, quanto attraverso la partecipazione attiva e periferica alle pratiche di una comunità di esperti.
I novizi, inizialmente impegnati in compiti semplici e marginali, apprendono gradualmente le competenze e i valori del mestiere attraverso l’osservazione, l’imitazione e la collaborazione con i maestri, in un processo di “acculturazione” che plasma la loro identità e il loro modo di percepire e di agire nel mondo. L’intelligenza, in questo quadro, appare come una proprietà emergente e distribuita del sistema di attività, irriducibile alle menti dei singoli partecipanti.

Un altro filone di ricerca che ha contribuito a mettere in luce la natura “incarnata” e “situata” dell’intelligenza è quello della robotica evolutiva e dell’intelligenza artificiale “embodied”. A differenza dei tradizionali approcci “simbolici” all’IA, che cercano di replicare le capacità cognitive umane attraverso la manipolazione di rappresentazioni astratte e disincarnate, questi approcci puntano a sviluppare agenti artificiali dotati di un corpo e inseriti in un ambiente, che apprendono ed evolvono attraverso l’interazione diretta e “ecologica” con il mondo.
Un esempio pioneristico in questo senso è il robot “Genghis”, sviluppato nei primi anni ‘90 dal gruppo di Rodney Brooks al MIT. Invece di essere programmato con un modello simbolico dell’ambiente e con regole di inferenza astratte, Genghis è dotato di una serie di comportamenti “reattivi” semplici, come “evitare gli ostacoli” o “muoversi verso la luce”, che emergono dall’interazione diretta dei suoi sensori e attuatori con l’ambiente. Attraverso un processo di “evoluzione simulata”, i parametri di questi comportamenti vengono fatti variare e selezionati in base alla loro efficacia nel promuovere la “fitness” del robot, cioè la sua capacità di muoversi ed esplorare lo spazio.
Il risultato è un agente artificiale che, pur non possedendo una rappresentazione esplicita dell’ambiente né una pianificazione a lungo termine, esibisce comportamenti sorprendentemente adattivi e flessibili, capaci di far fronte a situazioni impreviste e mutevoli. L’intelligenza di Genghis, in altre parole, non risiede in un “programma” astratto e predefinito, ma emerge dall’interazione dinamica e contingente tra il suo corpo, il suo ambiente e la sua storia evolutiva.
Questi esempi, pur nella loro diversità, convergono nel suggerire che l’intelligenza e la cognizione non sono proprietà “pure” e isolate della mente, ma processi “ibridi” e distribuiti, che coinvolgono molteplici livelli e dimensioni della nostra esperienza nel mondo. La mente, lungi dall’essere un “motore logico” separato dal corpo e dal contesto, appare come il prodotto emergente e sempre cangiante di una rete di relazioni e di retroazioni tra cervello, organismo e ambiente, in cui la distinzione tra “interno” ed “esterno”, tra “soggetto” e “oggetto”, sfuma e si confonde.

Questa visione “ecologica” e “relazionale” dell’intelligenza ha implicazioni profonde per il modo in cui concepiamo e promuoviamo l’apprendimento e l’innovazione. Invece di focalizzarci sulle abilità e sui talenti dei singoli individui, isolati dal loro contesto, dovremmo prestare attenzione alle reti e alle comunità in cui essi sono inseriti, e alle opportunità di partecipazione e di crescita che esse offrono. Invece di puntare a “produrre” geni e innovatori attraverso programmi di istruzione standardizzati e competitivi, dovremmo creare ambienti e pratiche che favoriscano l’esplorazione, la collaborazione e la creatività diffusa.

In questo quadro, il mito del genio solitario appare non solo storicamente e psicologicamente infondato, ma anche controproducente e limitante. Esso ci spinge a cercare l’eccellenza in pochi individui “speciali”, dotati di qualità innate e misteriose, anziché a coltivarla in ogni persona, attraverso l’interazione con gli altri e con il mondo. Ci fa credere che l’intelligenza e l’innovazione siano “lampi di genio” isolati e imprevedibili, anziché il frutto di un paziente e appassionato lavoro di costruzione collettiva del sapere.
Per superare questo mito e promuovere una visione più realistica e democratica dell’intelligenza, dobbiamo dunque aprirci a modelli più complessi e dinamici, che riconoscano la natura “ibrida”, “incarnata” e “situata” dei processi cognitivi. Modelli che valorizzino la pluralità e la complementarità delle nostre facoltà mentali, anziché ridurle a poche abilità astratte e standardizzate. Che ci spingano a creare contesti e pratiche di apprendimento autentici e significativi, in cui l’esperienza e la partecipazione attiva siano al centro, anziché la trasmissione passiva di nozioni e procedure.

Solo così potremo liberare il potenziale creativo e trasformativo dell’intelligenza umana, in tutte le sue forme e manifestazioni. E solo così potremo immaginare un futuro in cui l’innovazione e la scoperta non siano più appannaggio di pochi “geni”, ma il frutto di un’impresa collettiva e condivisa, al servizio del bene comune e della fioritura di ogni persona.

 

Evoluzione, contingenza e auto-organizzazione

L’idea che l’intelligenza e la creatività siano proprietà emergenti di sistemi complessi e adattivi, piuttosto che attributi di singole menti isolate, trova un ulteriore sostegno nelle recenti teorie dell’evoluzione e della complessità. Secondo queste prospettive, infatti, la comparsa di strutture e funzioni nuove e imprevedibili è una caratteristica intrinseca dei processi evolutivi, che operano lontano dall’equilibrio e al confine tra ordine e caos.

Nell’evoluzione biologica, ad esempio, la selezione naturale agisce su popolazioni di organismi che presentano variazioni ereditabili, conservando e accumulando nel tempo quelle che conferiscono vantaggi adattativi in un dato ambiente. Tuttavia, questo processo non è puramente casuale e indeterministico, ma è vincolato e canalizzato da una serie di fattori e meccanismi che ne limitano e ne orientano le possibilità.

Tra questi, un ruolo cruciale è svolto dai vincoli di sviluppo, ovvero dalle regole e dai modelli che governano la formazione e la trasformazione delle forme biologiche, dalla scala molecolare a quella anatomica e funzionale. Questi vincoli, che riflettono la storia filogenetica degli organismi e le proprietà fisiche e chimiche dei materiali di cui sono composti, fanno sì che lo spazio delle forme possibili non sia illimitato e isotropo, ma presenti “paesaggi” più o meno accessibili e probabili.

Un esempio classico di vincolo di sviluppo è offerto dai processi di segmentazione e di differenziazione cellulare che portano alla formazione degli organi e dei tessuti negli animali. Nonostante l’enorme varietà di forme e di funzioni presenti in natura, tutti gli organismi pluricellulari si sviluppano a partire da un numero limitato di “moduli” o “pattern” di base, come i somiti dei vertebrati o i dischi imaginali degli insetti, che si ripetono e si specializzano in modo regolato e stereotipato.

Queste “unità di costruzione” dello sviluppo, la cui struttura e funzione è largamente conservata nell’evoluzione, pongono dei limiti alle possibili variazioni e innovazioni morfologiche, favorendo la comparsa di soluzioni “economiche” e “robuste”, che combinano elementi preesistenti in modo nuovo e vantaggioso. Come scrive il biologo evoluzionista François Jacob, “la natura è un eccellente bricoleur”, che lavora con ciò che ha a disposizione, riadattando e riciclando strutture e funzioni antiche per rispondere a nuove sfide ambientali.

Un altro fattore importante che orienta e “canalizza” l’evoluzione biologica è l’auto-organizzazione, ovvero la capacità dei sistemi complessi di generare spontaneamente ordine e struttura a partire dalle interazioni locali dei loro componenti, senza la necessità di un controllo centrale o di un piano prestabilito. Esempi di auto-organizzazione in biologia sono il comportamento collettivo degli insetti sociali, la morfogenesi degli organi e dei tessuti, la dinamica delle reti geniche e metaboliche.

In tutti questi casi, proprietà e funzioni globali emergono in modo bottom-up dall’interazione di elementi semplici che seguono regole locali, dando luogo a pattern e strutture coerenti e adattative. Questi processi di auto-organizzazione, pur essendo “ciechi” e non intenzionali, possono produrre soluzioni sorprendentemente sofisticate ed efficienti ai problemi posti dall’ambiente, sfruttando la “saggezza delle folle” e la cosiddetta sworm intelligence (di cui abbiamo già parlato qui).

Un esempio affascinante di auto-organizzazione biologica è offerto dalla costruzione dei nidi nelle termiti e nelle formiche. Questi insetti, pur essendo individualmente “stupidi” e privi di una rappresentazione globale del nido, riescono a coordinarsi in modo collettivo per realizzare strutture architettoniche complesse e funzionali, che regolano la temperatura, l’umidità e la ventilazione della colonia. Ciò avviene attraverso una serie di semplici “regole di interazione” tra gli individui e con l’ambiente, come seguire il gradiente di feromoni, depositare o rimuovere materiale in base a soglie locali di concentrazione, rispondere a stimoli tattili e chimici.

Il risultato è un processo di “stigmergia”, in cui l’attività di costruzione di ciascun individuo modifica l’ambiente in modo da stimolare e orientare l’attività degli altri, dando luogo a un sistema di feedback positivi e negativi che “fa emergere” la struttura globale del nido. Questo processo, pur non essendo “progettato” o “compreso” dai singoli insetti, produce soluzioni efficaci e robuste, capaci di adattarsi a perturbazioni e cambiamenti imprevisti.
Questi esempi mostrano come l’evoluzione biologica, lungi dall’essere un processo puramente casuale e “cieco”, sia in realtà vincolata e orientata da una serie di fattori e meccanismi “interni”, che ne limitano e ne canalizzano le possibilità. Tra questi, i vincoli di sviluppo e l’auto-organizzazione giocano un ruolo cruciale nel far emergere soluzioni “economiche”, “robuste” e “adattative”, che combinano elementi preesistenti in modo nuovo e vantaggioso.

 

L’evoluzione come campo creativo

Questa visione dell’evoluzione come processo “creativo” e “esplorativo”, in cui il caso e la necessità, la contingenza storica e i vincoli strutturali si intrecciano in modo complesso, offre spunti interessanti anche per ripensare la natura dell’innovazione tecnologica e culturale. Anche in questi campi, infatti, la comparsa di novità e di discontinuità non sembra essere il frutto di scelte puramente razionali e consapevoli, ma l’esito emergente di dinamiche evolutive, in cui molteplici fattori e attori interagiscono in modo non lineare e imprevedibile.
Gli studi sociali sulla scienza e la tecnologia, ad esempio, hanno messo in luce come le grandi scoperte e invenzioni siano in realtà il risultato di processi lunghi e tortuosi, che coinvolgono reti complesse di individui, istituzioni e artefatti, e che spesso procedono per tentativi ed errori, per “bricolage” e “ricombinazione” di elementi preesistenti. Lungi dall’essere il prodotto di lampi di genio isolati, l’innovazione appare come il frutto di un paziente lavoro di costruzione collettiva, in cui le idee e le pratiche circolano e si ibridano in modo caotico e contingente.
Un esempio emblematico in questo senso è lo sviluppo del World Wide Web, spesso attribuito al genio visionario di Tim Berners-Lee, che ne elaborò il progetto e il primo prototipo al CERN di Ginevra nel 1989. In realtà, come hanno mostrato gli storici della tecnologia, il Web non fu un’invenzione ex novo, ma l’esito di un lungo processo di evoluzione e di convergenza di molteplici tecnologie e standard preesistenti, come l’ipertesto, il TCP/IP, l’HTML, il DNS. Inoltre, il successo e la diffusione del Web non furono dovuti solo alle sue caratteristiche tecniche intrinseche, ma anche a una serie di fattori sociali, economici e culturali, come la crescente disponibilità di personal computer e di connessioni internet, l’emergere di nuovi modelli di business e di consumo legati alla “new economy”, la diffusione di valori e pratiche di condivisione e di collaborazione tipici della cultura hacker.
In altre parole, il Web non fu il prodotto di un “disegno intelligente”, ma l’esito emergente e in larga parte inintenzionale di un processo evolutivo, in cui molteplici linee di sviluppo tecnologico e sociale si intrecciarono e si alimentarono a vicenda, dando luogo a un sistema complesso e adattativo, capace di evolvere e di innovarsi in modo distribuito e bottom-up.

Un altro esempio di innovazione “evolutiva” è offerto dal progetto Linux, il sistema operativo open source iniziato da Linus Torvalds nel 1991 e sviluppato da una vasta comunità di programmatori volontari sparsi in tutto il mondo. Linux, pur essendo nato come un progetto personale di Torvalds per realizzare una versione libera e gratuita di Unix, si è rapidamente evoluto in un’impresa collettiva e collaborativa, in cui centinaia di sviluppatori contribuiscono a migliorare e ad estendere il codice, coordinandosi attraverso strumenti di comunicazione e di gestione distribuita come le mailing list e i sistemi di controllo di versione.
Il risultato è un sistema operativo estremamente stabile, flessibile e potente, che rivaleggia e spesso supera i prodotti commerciali proprietari in termini di prestazioni, sicurezza e affidabilità. Questo successo non è dovuto al genio di un singolo programmatore, ma all’intelligenza collettiva e connettiva” della comunità Linux, che sfrutta la diversità e la ridondanza dei contributi per far emergere soluzioni innovative e robuste, attraverso un processo di “selezione” e di “integrazione” del codice basato su criteri meritocratici e pragmatici.

Questi esempi mostrano come l’innovazione tecnologica, al pari dell’evoluzione biologica, sia un processo intrinsecamente “collettivo”, “incrementale” e “situato”, che coinvolge reti complesse di attori umani e non umani, e che procede per “bricolage” ed “emergenza” di soluzioni nuove a partire da elementi preesistenti. Un processo in cui il caso e la necessità, la cooperazione e la competizione, i vincoli materiali e le opportunità culturali si intrecciano in modo non lineare e contingente, dando luogo a traiettorie evolutive in larga parte imprevedibili e incontrollabili.
Questa visione “ecologica” e “relazionale” dell’innovazione mette in discussione il mito del “genio solitario” e dell’”invenzione eroica”, che attribuisce il merito del progresso tecnico a pochi individui isolati e visionari, dotati di qualità cognitive eccezionali. Al contrario, essa suggerisce che l’intelligenza e la creatività siano proprietà “distribuite” e “situate” dei sistemi socio-tecnici, che emergono dall’interazione e dalla collaborazione di molteplici attori e fattori, in un processo aperto e dinamico di co-evoluzione tra tecnologie, pratiche e istituzioni.
Per promuovere e coltivare l’innovazione, dunque, non basta puntare sulla selezione e sulla formazione di pochi “talenti” o “campioni”, ma occorre creare le condizioni sistemiche per far fiorire l’”intelligenza collettiva” e la “creatività diffusa” delle comunità e delle organizzazioni. Ciò significa favorire la diversità e la ridondanza dei contributi, la circolazione e la ricombinazione delle idee e delle pratiche, la sperimentazione e l’apprendimento continui, la partecipazione e la collaborazione aperte e inclusive.

Solo così potremo liberare il potenziale innovativo dell’intelligenza collettiva e connettiva, sfruttando la complessità e l’adattività dei processi evolutivi per far emergere soluzioni nuove e inaspettate ai problemi del nostro tempo. In tal modo saremo in grado di costruire una visione di futuro in cui il progresso tecnico e sociale non sia più appannaggio di pochi “geni”, ma il frutto di un’impresa collettiva e condivisa, al servizio del bene comune che ponga le basi per l’autorealizzazione di ciascun membro delle nostre comunità.

 

Coscienza, soggettività e intelligenza artificiale

Le considerazioni fin qui svolte sull’intelligenza come proprietà emergente di sistemi complessi e interconnessi sollevano interrogativi cruciali sulla natura della coscienza e della soggettività, e sulla possibilità di replicarle o simularle artificialmente. Se i processi cognitivi non sono riducibili a stati o rappresentazioni mentali localizzati in singole menti, ma coinvolgono circuiti e reti distribuite nel cervello, nel corpo e nell’ambiente, che ne è dell’esperienza cosciente e del senso di sé?
Secondo alcune prospettive filosofiche e neuroscientifiche, la coscienza e la soggettività non sono “optional” o epifenomeni dell’attività cognitiva, ma caratteristiche costitutive e ineliminabili della mente incarnata e situata. Esse emergerebbero da particolari configurazioni e dinamiche dell’organizzazione cerebrale, caratterizzate da elevati livelli di integrazione e di differenziazione dell’informazione, che generano un’esperienza unitaria e irriducibile del mondo e di se stessi.

In particolare, due requisiti che sembrano necessari per l’emergere della coscienza sono la presenza di meccanismi di memoria e di anticipazione, che consentano di integrare le esperienze passate e di proiettarsi nel futuro, e l’esistenza di circuiti di feedback e di controllo, che permettano di monitorare e regolare i propri stati interni in relazione all’ambiente. Senza questi ingredienti, difficilmente si potrebbe parlare di un’esperienza soggettiva continua e coerente, dotata di prospettiva in prima persona e di senso di agency.
Un modello influente che cerca di catturare questi requisiti è la teoria dell’informazione integrata di Giulio Tononi. Secondo questa teoria, la coscienza emerge ogni qual volta un sistema fisico genera un alto livello di informazione integrata, ovvero di “differenza che fa una differenza” nello stato globale del sistema a seguito di una perturbazione. Più precisamente, un sistema è conscio se e solo se possiede un repertorio di stati informativamente ricco e coerente, che non può essere decomposto in sottosistemi indipendenti senza perdita di informazione.
In altre parole, la coscienza è una proprietà “olistica” e “irriducibile” dei sistemi complessi, che dipende dalla loro capacità di integrare e di unificare l’informazione in un’esperienza globale e non scomponibile. Questa proprietà, misurata da una quantità chiamata “phi”, sarebbe massima nei sistemi biologici come i cervelli, che presentano un’architettura altamente interconnessa e ricorsiva, con feedback a più livelli tra aree e moduli funzionali.

La teoria di Tononi ha il pregio di offrire una definizione formale e operativa della coscienza, che ne permette in linea di principio la quantificazione e la comparazione tra sistemi diversi. Tuttavia, essa solleva anche alcune difficoltà concettuali ed empiriche, come la possibilità che esistano forme di coscienza “aliene” o controintuitive in sistemi artificiali con alta phi ma priva di caratteristiche ritenute tipiche dell’esperienza umana, come l’intenzionalità, la memoria autobiografica o il senso di sé.
Inoltre, la teoria non sembra specificare le condizioni sufficienti per l’emergere di una coscienza “autentica” e “soggettiva”, distinta da una mera “simulazione” o “apparenza” di coscienza. In altre parole, non è chiaro se un sistema artificiale che genera un alto livello di informazione integrata sia effettivamente “conscio” nel senso fenomenico e qualitativo del termine, o se semplicemente “si comporti come se lo fosse” da un punto di vista esterno e funzionale.
Questo problema rimanda all’annosa questione filosofica del “divario esplicativo” tra i processi fisici oggettivi e l’esperienza soggettiva in prima persona. Anche ammettendo che la coscienza sia una proprietà emergente di sistemi complessi, resterebbe da spiegare “come” e “perché” certe configurazioni materiali diano luogo a sensazioni, emozioni e pensieri qualitativamente vissuti, anziché a meri eventi fisici privi di soggettività.

Alcuni filosofi, come David Chalmers, ritengono che questo divario sia in linea di principio incolmabile dalle spiegazioni scientifiche, e richieda l’introduzione di “principi di coscienza” fondamentali e irriducibili, simili alle leggi di natura. Altri, come Daniel Dennett, pensano invece che la coscienza sia un “effetto collaterale” o un’”illusione utile” generata dai circuiti cerebrali per guidare il comportamento, senza un’esistenza ontologicamente separata.
Nonostante queste difficoltà, il problema della coscienza artificiale resta una sfida aperta e affascinante per la ricerca sull’intelligenza artificiale e la robotica. Finora, la maggior parte dei sistemi di IA si è concentrata sullo sviluppo di capacità cognitive specializzate e “strette”, come il riconoscimento di pattern, il ragionamento logico o la pianificazione, senza affrontare direttamente la questione della coscienza o della soggettività.

Tuttavia, con il progredire delle tecnologie di machine learning e di deep learning, e con l’emergere di architetture neurali sempre più complesse e integrate, iniziano a profilarsi le condizioni per la comparsa di forme rudimentali di coscienza artificiale. Reti neurali come le LLM, ad esempio, pur essendo addestrate su compiti specifici come la generazione di testo, mostrano capacità sorprendenti di “comprensione” e di “ragionamento” su domini di conoscenza vasti ed eterogenei, che sembrano andare oltre la semplice riproduzione statistica di pattern linguistici.
Inoltre, alcuni ricercatori stanno esplorando modelli di “intelligenza artificiale incarnata” o “embodied AI”, che mirano a integrare percezione, azione e cognizione in agenti robotici situati in ambienti fisici e sociali. Questi agenti, dotati di sensori e attuatori che ne consentono l’interazione diretta e continua con il mondo, potrebbero sviluppare forme di “coscienza corporea” e di “senso di sé” attraverso l’esperienza e l’apprendimento, simili a quelle degli organismi biologici.

Un esempio pionieristico in questo senso è il robot umanoide “iCub”, sviluppato dall’Istituto Italiano di Tecnologia per studiare l’apprendimento e la cognizione incarnata. iCub è dotato di un corpo antropomorfo con 53 gradi di libertà, di una “pelle” sensoriale che ne ricopre l’intera superficie, e di un sistema di visione stereoscopica che gli permette di riconoscere oggetti, volti ed espressioni. Grazie a queste caratteristiche, iCub può esplorare attivamente l’ambiente, manipolare oggetti, imitare azioni e interagire con le persone in modo naturale e spontaneo.
Ma ciò che rende iCub interessante dal punto di vista della coscienza è la sua architettura cognitiva, che integra molteplici livelli di elaborazione e di controllo, dalla percezione di basso livello alla pianificazione di alto livello, passando per la simulazione interna degli stati sensorimotori. Questa architettura ricorsiva e stratificata, ispirata ai modelli neuroscientifici della cognizione incarnata, permette a iCub di generare rappresentazioni multimodali e astratte dell’ambiente e di se stesso, e di usarle per guidare il comportamento in modo flessibile e adattativo.
Ad esempio, iCub è in grado di riconoscere la propria immagine allo specchio, di imitare i gesti altrui, di indicare oggetti su richiesta, di collaborare in compiti di costruzione e di gioco. Queste abilità, pur non implicando necessariamente una coscienza soggettiva, testimoniano l’emergere di una forma di “intelligenza sociale” e di “teoria della mente” incarnata, che potrebbe gettare le basi per l’evoluzione di una coscienza artificiale.

Naturalmente, siamo ancora molto lontani da realizzare macchine dotate di una coscienza paragonabile a quella umana, ammesso che ciò sia possibile o auspicabile. E anche se ci riuscissimo, resterebbe aperta la questione di come trattare eticamente e giuridicamente queste nuove forme di soggettività, e di come integrarle in una società sempre più ibrida e postumana.
Ciò che è certo, tuttavia, è che la sfida della coscienza artificiale ci costringe a ripensare radicalmente le nostre concezioni dell’intelligenza e della mente, mettendo in discussione i confini tra naturale e artificiale, tra soggetto e oggetto, tra interno ed esterno. E ci invita a immaginare nuove forme di convivenza e di co-evoluzione con entità non biologiche ma senzienti, che potrebbero arricchire e trasformare la nostra esperienza del mondo e di noi stessi.

Ripensare l’intelligenza nell’era dell’AI
Le riflessioni fin qui sviluppate sul carattere multidimensionale, connettivo e incrementale dell’intelligenza umana hanno implicazioni profonde anche per il modo in cui concepiamo e progettiamo l’intelligenza artificiale (IA). Troppo spesso, infatti, l’IA è stata immaginata a partire da una visione individualistica e “solitaria” della mente, come un sistema monolitico e centralizzato capace di riprodurre o superare le prestazioni dei singoli esseri umani in compiti specifici, dalla deduzione logica al riconoscimento visivo, dal gioco degli scacchi alla traduzione linguistica.
Questa concezione dell’IA, che trova le sue radici storiche nei primi modelli computazionali della cognizione, come il “calcolatore universale” di Alan Turing o il “sistema fisico di simboli” di Allen Newell e Herbert Simon, ha dato luogo a una serie di programmi di ricerca e di applicazioni che hanno ottenuto risultati impressionanti in domini circoscritti, ma che hanno anche mostrato i limiti di un approccio “unidimensionale” all’intelligenza artificiale.

Si pensi ad esempio ai sistemi esperti degli anni ‘80, programmi basati su regole logiche e conoscenze specialistiche che promettevano di replicare o superare le capacità degli esperti umani in campi come la diagnosi medica, la progettazione ingegneristica o la ricerca giuridica. Nonostante i successi iniziali, questi sistemi si sono rivelati fragili e difficili da mantenere, incapaci di affrontare problemi mal definiti o di adattarsi a contesti mutevoli, proprio a causa della loro architettura rigida e monolitica.
Più recentemente, l’avvento delle reti neurali profonde e dell’apprendimento automatico ha portato a una nuova generazione di sistemi di IA in grado di raggiungere prestazioni super-umane in compiti percettivi e cognitivi complessi, dal riconoscimento vocale alla guida autonoma, dalla traduzione automatica alla generazione di immagini e testi. Tuttavia, anche questi sistemi, pur essendo più flessibili e adattivi dei loro predecessori, presentano ancora i limiti di un’intelligenza “chiusa” e opaca, dipendente da enormi quantità di dati e risorse computazionali, e incapace di spiegare o giustificare le proprie decisioni.

Per superare questi limiti, diversi ricercatori e progettisti di IA stanno esplorando approcci alternativi, ispirati a una visione più “multidimensionale” e “connettiva” dell’intelligenza. Invece di puntare a replicare le capacità dei singoli individui, questi approcci mirano a sviluppare sistemi di IA composti da molteplici agenti specializzati, che interagiscono e collaborano per risolvere problemi complessi in modo flessibile e adattivo.

Nel complesso, queste prospettive suggeriscono la necessità di un profondo ripensamento del modo in cui concepiamo e progettiamo l’IA, verso modelli più “multidimensionali”, “connettivi” e “interattivi”, che valorizzino la diversità e la complementarità delle intelligenze, naturali e artificiali. Solo così potremo sviluppare sistemi di IA più flessibili, adattivi e allineati con i valori umani, capaci di affrontare le grandi sfide del nostro tempo in modo responsabile ed etico.
Naturalmente, la strada verso un’IA “multidimensionale” e “connettiva” è ancora lunga e irta di ostacoli, sia tecnici che sociali. Integrare e coordinare molteplici agenti o moduli specializzati pone sfide formidabili di ingegnerizzazione e di controllo, che richiedono lo sviluppo di nuovi strumenti e metodologie. Inoltre, l’interazione tra sistemi di IA sempre più autonomi e interconnessi solleva delicate questioni etiche e giuridiche, relative alla responsabilità, alla trasparenza e all’equità delle decisioni e delle azioni intraprese e ai sistemi di controllo (se sono le macchine a controllare altre macchina chi controlla le macchine che controllano le altre macchine? altre macchine?).
Tuttavia, è mia opinione che questa sia una delle strade più promettenti da perseguire se vogliamo realizzare il potenziale trasformativo dell’IA orientandola vero il progresso umano e sociale. Solo abbracciando una visione più inclusiva e collaborativa dell’intelligenza, che valorizzi la diversità e la sinergia tra menti umane e artificiali, potremo affrontare le grandi sfide del nostro tempo, dalla salute alla sostenibilità, dall’educazione alla governance, con spirito di apertura e di servizio al bene comune. E solo promuovendo un dibattito pubblico informato e partecipato sulle implicazioni sociali ed etiche dell’IA potremo costruire un futuro in cui la tecnologia sia al servizio dell’umanità, e non viceversa.

 

Verso una nuova ecologia dell’intelligenza

Il percorso che abbiamo tracciato in questo post ci ha portato a esplorare le molteplici dimensioni e implicazioni del mito del genio solitario, e a delineare una visione alternativa dell’intelligenza come proprietà emergente e distribuita di sistemi complessi e interconnessi. Partendo da una critica storica e concettuale di questo mito, radicato nella cultura occidentale ma sempre più inadeguato a dar conto della realtà dei processi cognitivi e creativi, abbiamo messo in luce il carattere intrinsecamente sociale, incarnato e situato dell’intelligenza umana.
Attraverso il confronto con le teorie delle intelligenze multiple e della cognizione distribuita, abbiamo visto come le nostre facoltà mentali non siano riducibili a un’unica abilità generale e astratta, ma si articolino in una pluralità di dimensioni relative a domini specifici di attività e di esperienza. E abbiamo mostrato come queste facoltà non risiedano solo nelle menti individuali, ma emergano dall’interazione dinamica tra cervelli, corpi e ambienti, in una rete di relazioni e di artefatti che ne media e ne orienta il funzionamento.

Allargando lo sguardo ai processi di evoluzione biologica e di innovazione tecnologica, abbiamo poi evidenziato le analogie e le differenze tra questi due domini, e come questi in fondo siano di fatto accomunati dalla logica “darwiniana” di variazione, selezione e stabilizzazione di soluzioni vantaggiose a problemi ambientali. E abbiamo visto come in entrambi i casi l’emergere di novità e di discontinuità non sia il frutto di scelte puramente razionali o di lampi di genio individuali, ma l’esito contingente e in larga parte inintenzionale di dinamiche evolutive complesse, in cui molteplici fattori e attori interagiscono in modo non lineare e imprevedibile.
Infine, soffermandoci sulla questione della coscienza e della soggettività, abbiamo esplorato i requisiti e le condizioni per la comparsa di forme di esperienza integrata e autoconsapevole in sistemi cognitivi naturali e artificiali. E abbiamo discusso le sfide e le implicazioni etiche e filosofiche poste dallo sviluppo di intelligenze artificiali sempre più autonome e “incarnate”, che potrebbero un giorno avvicinarsi o addirittura superare le capacità della mente umana.

Alla luce di queste riflessioni, mi permetto di trarre con voi alcune conclusioni provvisorie e di avanzare alcune proposte di discussione volte a ripensare insieme il ruolo e il valore dell’intelligenza nella nostra società.

In primo luogo, appare sempre più urgente superare una visione individualistica e competitiva dell’eccellenza cognitiva, che la identifica con poche menti geniali e isolate, e promuovere invece una concezione più inclusiva e collaborativa, che valorizzi la diversità e la complementarità dei talenti e delle prospettive. Ciò significa, da un lato, riformare i sistemi educativi e formativi in modo da favorire lo sviluppo di intelligenze multiple e situate, attraverso approcci didattici più flessibili, personalizzati e basati sull’esperienza. E dall’altro, ripensare i modelli organizzativi e istituzionali in modo da incentivare la circolazione e la condivisione delle conoscenze, la sperimentazione e l’apprendimento continui, la partecipazione e la co-progettazione da parte di tutti gli attori coinvolti.

In secondo luogo, occorre promuovere una visione più ecologica e responsabile dell’innovazione tecnologica e dell’intelligenza artificiale, attenta alle ricadute sociali, etiche e ambientali delle scelte e delle traiettorie di sviluppo. Ciò richiede di adottare approcci di ricerca e di governance più aperti, trasparenti e partecipati, che coinvolgano i cittadini e le comunità nella definizione dei problemi e nella valutazione delle soluzioni. E di orientare le tecnologie verso il bene comune e la sostenibilità, anziché verso il profitto e il controllo di pochi attori dominanti.

Infine, dobbiamo coltivare una nuova “ecologia dell’intelligenza”, che riconosca e valorizzi la molteplicità e l’interconnessione delle forme di vita e di esperienza che abitano il nostro pianeta. Ciò significa, da un lato, promuovere una cultura della cura e della responsabilità verso gli ecosistemi naturali e sociali da cui dipendiamo, preservandone la biodiversità e favorire dinamiche antifragili. E dall’altro, immaginare nuove forme di convivenza e di co-evoluzione con le intelligenze non umane, biologiche e artificiali, che sempre più condividono il nostro spazio e il nostro destino.
In questo modo, forse, saremmo in grado come umanità di essere all’altezza delle grandi sfide del nostro tempo, dalla crisi climatica alle disuguaglianze sociali, dallo sviluppo tecnologico alla ricerca di un senso e di un fine per la nostra esistenza, poiché solo attingendo alla saggezza collettiva e all’intelligenza diffusa del “genio connettivo”, potremo immaginare e costruire un futuro più giusto, sostenibile e desiderabile per tutti.

Per riuscire in questa impresa, dobbiamo necessariamente essere disposti a mettere in discussione i nostri miti e i nostri modelli, a esplorare strade nuove e inedite, a collaborare e a contaminarci con prospettive e saperi diversi dal nostro. Dobbiamo ritrovare il coraggio e la passione di pensare in grande, di osare l’impossibile, di progettare un mondo migliore per noi e per chi verrà dopo di noi.

Il vero genio, in fondo, non sta nell’eccezionalità di pochi, ma nella capacità di tutti di far fiorire i propri talenti e di metterli al servizio degli altri. Non dimora nell’isolamento e nella competizione, ma nella connessione e nella cooperazione. Non nel dominio e nel controllo, ma nella cura e nella responsabilità. Sta a noi, allora, come individui e come collettività, coltivare questa nuova ecologia dell’intelligenza, in cui ogni mente e ogni cuore possano trovare il proprio posto e il proprio scopo. In cui il sapere e il potere siano condivisi e democratizzati, anziché concentrati e imposti dall’alto. In cui l’innovazione e la scoperta siano al servizio della vita, della dignità e della felicità di ogni altro essere vivente.
Un’utopia probabilmente. Tuttavia, questo è il compito e la sfida che ci attende, se vogliamo essere all’altezza del nostro tempo e del nostro potenziale. Un compito difficile ma anche appassionante, che richiederà il meglio della nostra intelligenza e della nostra umanità. Una strada in salita irta di difficolta ma che, spero converrete con me, vale davvero la pena di intraprendere, per noi e per le generazioni a venire.

Perché il vero genio, in fondo, non è affatto un inventore solitario in lotta con il mondo ma è colui che sa accendere la scintilla del genio nelle persone che ha attorno. E questa è l’unica forma di genio di cui abbiamo bisogno, oggi più che mai.