Salta al contenuto principale
Hacking del sé

Pulp libri, 23 ottobre 2024Per un hacking del sé

Rinunciare al nome, all’identità. Trasformare la produttività in ozio creativo. Hackerare le nostre vite nell’era delle piattaforme e del controllo digitale personalizzato è un po’ come esibire un vecchio Nokia 3310 scassato a una riunione di lavoro. Per il Collettivo Ippolita, tornato in libreria con l’antologia Hacking del sé (Agenzia X), è anche un modo per stare dalle parte delle macchine e contro il capitalismo. 

Il testo seguente, “Inconscio, macchine, AI e posthuman”, che pubblichiamo per gentile concessione dell’editore Agenzia X, è tratto dal nuovo libro di Ippolita, “Hacking del sé” (Agenzia X, 2024). La raccolta di saggi è un viaggio – agile e non accademico, come nello stile di questo collettivo, formatosi all’inizio del secolo – attraverso saperi e corpi non conformi con la normalità delle piattaforme e del controllo digitale individualizzato. Un viaggio che è anche l’invito alla rilettura di autori e autrici come Donna Haraway, Antonio Caronia, Bernard Stiegler, Antonine Artaud, Rosi Braidotti, Mauro Perniola, Philip K. Dick, William Burroughs che ci accompagnano in quello che si riconosce come “un esercizio di cura per disinnescare le norme inscritte nei nostri corpi dal capitalismo”. Il brano che presentiamo introduce il tema delle cosiddette AI (Artificial Intelligence), una definizione entrata nell’uso con il suo carico di ingombranti sottotesti, dal punto di vista dell’inconscio della macchina e delle sue epistemologie meno ovvie. Un approccio che sintetizza anche il metodo di un libro e di percorso, quello compiuto dal collettivo Ippolita negli ultimi cinque anni, attraverso il confronto con molteplici realtà di movimento e la creazione di iniziative editoriali quali le collane Culture Radicali (Melteni), Postuman3 e Selene (Mimesis). 

Noi non siamo stati degli allievi di Antonio Caronia, ma lo abbiamo incrociato diverse volte nel corso degli anni. 
È stato più che altro un interlocutore, che poi come gruppo Ippolita abbiamo ri-incrociato in alcuni spazi sociali come Bulk e Pergola, tra realtà autogestite e hacklab. 
Quindi un interlocutore, una persona con cui ragionare e che per noi è di fatto parte di una genealogia. Insieme ad Antonio Caronia, per noi sono stati fondamentali anche altre persone dai più diversi profili: studiosx, militanti, giornalistx, docenti. 
Per esempio, in quegli anni, Mario Perniola o Benedetto Vecchi e il gruppo intorno alla rivista “Millepiani”, come Tiziana Villani e Ubaldo Fadini. 
E poi altri ancora che magari abbiamo incontrato facendo ricerca, studiando. Perché il nostro modo di fare ricerca è non accademico, ossia più che altro montiamo e smontiamo dei cantieri, e dentro questi cantieri ci finiscono poi tanti stimoli diversi, per cui sicuramente emergono una rete di riferimenti, che erano anche quelli di Caronia, tra cui Dick, Burroughs, Ballard e Artaud. 
C’è ne sono stati poi altri, uno sicuramente importante che abbiamo condiviso, Donna Haraway, ma anche Rosi Braidotti e, in tempi più recenti, Bernard Stigler. Per arrivare poi a ricercatori e ricercatrici più giovani, Simone Browne, Alexander Galloway, Andrew Goodman e altrx. Di tutta questa nostra attività cerchiamo di tenere traccia in molti modi. Uno di questi modi è costruire un altro cantiere che prende poi la forma di una collana di libri che si chiama Cultura radicali. 
Allora per onorare un pezzo della nostra genealogia, qualche anno fa, abbiamo deciso di rivolgerci a Loretta Borrelli e a Fabio Malagnini per cercare di costruire un testo che ridesse voce al pensiero di Antonio Caronia. 
Anche se nel frattempo, da quando è venuto a mancare a oggi, tante persone si sono messe in un solco che era in qualche modo quello di Antonio, ci sembrava che la voce di Antonio corresse il rischio di essere dimenticata. 
Invece noi volevamo farla sentire ancora. Ci siamo allora rivolti a Loretta e Fabio e grazie a loro siamo riusciti a far pubblicare Dal cyborg al postumano, una collezione di testi di Antonio con un importante inedito, tratto da una sua lezione in Accademia. 
Diciamo questo per spiegare perché siamo qua con il microfono in mano e rendere comprensibile la prospettiva da cui parliamo. 
Il nostro intervento sarà sull’inconscio delle macchine. Per noi vuol dire fare riferimento alla questione dell’intelligenza artificiale. L’inconscio delle macchine è l’intelligenza artificiale, l’inconscio dell’intelligenza artificiale è qualcosa che bisogna, invece, andare a guardare molto da vicino. 
Innanzitutto perché questa definizione, come abbiamo imparato è una definizione totalmente forviante, però nasconde una serie di sottotesti. 
Ed è interessante andare a vedere in questo gioco di metafore dove si può arrivare. 
Partiamo dal concetto di intelligenza. Non è detto che l’intelligenza sia sempre la stessa, cioè che si intenda sempre la stessa cosa. 
Ci sono tanti tipi di intelligenze. Ci sono intelligenze che appartengono all’organico e altre che appartengono all’inorganico. 
Ci sono intelligenze emotive, spaziali, musicali, artistiche, matematiche, per restare nell’umano. Ma ci sono intelligenze tra l’organico e l’inorganico, ci sono intelligenze delle piante. E poi ci sono le intelligenze collettive, le intelligenze sociali, le intelligenze dei corpi sociali. 
Quindi già partendo da questo punto ci accorgiamo che parlare di intelligenza artificiale ci rivela un tratto caratteristico dell’immagine del sapere gerarchico, ossia del sapere che si vuole “alto”, cioè quello della reductio ad unum
Che è tipica, per altro, dell’informatica novecentesca e della storia della cibernetica, vale a dire il tentativo di ridurre la complessità a un unico. 
Allora è invece interessante andare a togliere il coperchio e vedere quali sono proprio gli archetipi, i complessi, le costellazioni dell’inconscio delle macchine. 
Ossia quali epistemologie sono embeddate nel codice. E quello che scopriamo è che queste intelligenze artificiali che ci stanno propinando sono fin troppo umane. Questo è un po’ il problema. Sono fin troppo umane perché sono terribilmente posizionate in senso bianco, patriarcale, borghese. 
L’intelligenza artificiale è troppo umana perché dominata da un mercato anarcocapitalista. 
Chi produce oggi l’intelligenza artificiale? L’intelligenza artificiale non è un concetto, è un’insieme di pratiche, è un’insieme di oggetti. 
Questo insieme di oggetti è segnato, ha una storia, ha una vicenda alle spalle. 
Questa vicenda che ci viene consegnata oggi è in gran parte debitrice di un contesto culturale che è un contesto economico con un segno ben preciso. 
Parlando dunque di intelligenza artificiale non dobbiamo fare l’errore di posizionare questo oggetto immaginario lontano dal mondo che abitiamo. È fin troppo dentro il mondo che abitiamo. Ed è segnato in quel modo lì. È un prodotto dell’anarcocapitalismo. 
Non è detto che sia per forza così, ma oggi le intelligenze artificiali di cui parliamo sono questo. Vengono sviluppate in laboratori che ragionano all’interno di una logica storicamente determinata. 
Andare allora a vedere le epistemologie che sono praticate dentro quei laboratori – e a cui lì si dà corpo – ci aiuta a capire di che cosa stiamo parlando. E su questo ci sono chiaramente altri interlocutori che ci servono, che ci aiutano. Alcuni li abbiamo nominati e altri possiamo nominarli nuovamente. Sono persone che ci aiutano a capire la logica che dà forma al sistema computazione. 
Uno su tutti David Golumbia, che nel 2009 ha scritto un saggio molto bello ma semisconosciuto proprio su questo tema. Il concetto di computazionalismo che descrive in The Cultural Logic of Computation riguarda l’insieme di credenze nel potere del calcolo, e della sua novità, che consente a esso di passare per un agente di cambiamento radicale, rafforzando tuttavia molteplici forme di ragione strumentale e di disuguaglianze politiche ed economiche. 
Un altro autore più vicino a noi è Seb Franklin che ragiona sul tema del controllo come logica propria del mondo digitale, e che ne individua l’emersione attraverso tre fili intrecciati: il primo consiste nel rapporto tra informazione, lavoro e gestione sociale nell’economia politica e nella tecnologia tra il XIX e la seconda metà del XX secolo. Il secondo riguarda lo sviluppo e la diffusione delle metafore uomo-computer nei decenni centrali del Novecento. Il terzo osserva l’ampiezza e la penetrazione di questi principi informatici in alcune pratiche socioeconomiche e culturali tra la fine del XX e l’inizio del XXI secolo. 
Di grande interesse è sicuramente anche Virginia Eubanks che ragiona sul cambiamento epocale che hanno subito i processi deliberativi nei settori della finanza, dell’occupazione, della politica, della salute e dei servizi dal sorgere dell’era digitale, ossia sulle conseguenze che comporta nella vita dei normali cittadini la cessione di gran parte del potere decisionale a macchine digitali, sistemi automatizzati e algoritmi di classificazione e modelli di rischio predittivo. 
Ugualmente illuminante è il lavoro di Safiya Umoja Noble, in Algorithms of Oppression, che indaga le relazioni sociali oppressive messe in atto dalle nuove modalità di profiling razziale. La sua riflessione fa riferimento al fatto che su Internet e nell’uso quotidiano della tecnologia, la discriminazione è incorporata nel codice dei computer e, sempre più spesso, nelle tecnologie di intelligenza artificiale da cui dipendiamo, per scelta o meno. L’uso pressoché universale di software algoritmici, visibili e invisibili alla gente comune, richiede secondo Noble un’analisi approfondita di quali valori siano prioritari in questi sistemi automatizzati per iniziare a comprendere le conseguenze a lungo termine di simili strumenti decisionali nel mascherare e aggravare le disuguaglianze sociali. 
Questi e altri sono gli studi che ci possono aiutare per andare a interrogare le epistemologie e i presupposti ideologici che oggi vediamo in azione nel mondo digitale. 
Operare quindi un’ampia riflessione per comprendere – anche genealogicamente – di cosa parliamo quando parliamo di intelligenza artificiale ci appare un compito urgente e certamente ci colloca in mezzo a tutti questi stimoli e queste stratificazioni culturali. 
L’importante è capire che se è vero che queste intelligenze artificiali sono caratterizzate in questo modo, oggi, non per forza lo dovranno essere domani. 
Per essere chiari: ci piace essere dalla parte delle macchine ma a modo nostro. 
Una delle prime cose che penso in molti abbiamo notato in questi ultimi anni a proposito dell’intelligenza artificiale, è che si oscilla sempre tra due metafore. La prima è la metafora dell’intelligenza artificiale come qualcosa di predatorio, qualcosa che ci minaccia. Ed è interessante perché, parlandone con amici antispecisti, abbiamo notato che è da millenni che l’essere umano non è più abituato a essere cacciato. Qui si nota un intrigante ribaltamento dell’abituale logica antropocentrica. Adesso forse potremmo capire cosa vuol dire diventare soggetti che vengono predati – probabilmente qualcuno non vede l’ora. 
Però questa immagine dell’intelligenza artificiale come un apparato di cattura che deruba e saccheggia capacità ed energie, non è certo quello che ci auguriamo, non è la direzione verso cui vogliamo andare. Anzi è esattamente quello da cui vorremmo affrancarci. Per alcuni è certamente una forzatura voler vedere le cose in questo modo anche se, è giusto ricordarlo, il capitalismo estrattivo sembra non fare altro ed è attivo ben oltre il settore dell’industria digitale. 
L’altra metafora nascosta nel discorso sull’intelligenza artificiale, l’altro polo del dibattito mainstream, speculare e opposto all’idea di una tecnologia che ci annienta, è che sia qualcosa al nostro servizio. Ci deve obbedire, deve fare quello che vogliamo. Questa è sostanzialmente un’idea di intelligenza artificiale nella quale si immagina che debba essere un servo zelante. Decenni di ricerca tecnologica per creare delle macchine schiave. 
Anche questa concezione inconscia è interessante. Peraltro, poiché la lingua non perdona, facciamo presente che in italiano intelligenza artificiale ahimè si coniuga al femminile. Il risultato ci pare significativo: l’ennesima creatura femminile schiavizzata al nostro servizio. Ci sembra ci siano dei problemi, insomma. 
Quindi come fare a non parteggiare né per la predazione, né per le nuove forme di schiavitù e i loro sostenitori. Il capitalismo contemporaneo ci dice: “Abbracciate il progresso! Criticare l’innovazione è da luddisti/cavernicoli/primitivisti! Fatevi furbi, usate i nuovi schiavi che abbiamo creato per voi!”. 
La domanda allora diventa: come stare dalla parte delle macchine senza replicare questo atteggiamento che introietta l’ordine capitalista? Come far sì che le macchine non siano gli ennesimi esseri schiavizzati a nostro servizio? 
Ecco, nel nostro percorso, meditando sul digitale ci siamo accorte che è fondamentale lavorare per destrutturare radicalmente i presupposti culturali dai quali si parte quando “facciamo codice”. 
Di recente ci è stato chiesto di descrivere un breve poscritto polemico all’edizione italiana di The White Paper di Satoshi Nakamoto, il putativo inventore di Bitcoin. Abbiamo accettato di buon grado e l’abbiamo intitolato Fuori dall’idios kosmos tema per altro molto caro a Philip K. Dick. Fuori dall’idios kosmos perché c’è un problema legato proprio al suprematismo nerd, ossia al fatto che negli ultimi decenni chi maneggia il codice si è trovato nella posizione, non priva di un certo senso di vertigine, di avere in mano le chiavi della realtà, o almeno di avere l’impressione di averle. Ecco solo che tutto questo poi avviene in pochi laboratori tipicamente finanziati da chi tifa “status quo”. Pensiamo alla figura del ragazzino che lavora nel proprio garage, che è una figura mitica, anche questa va smontata, relativizzata, perché non è del tutto vera, però è vero che questi laboratori difficilmente vengono attraversati da intelligente altre. Difficilmente in questi laboratori si fa un ragionamento che va da al di là di come costruire un software elegantemente efficace. 
Ci siamo accorte, per esempio, che lavorare sul metodo non basta. È fondamentale, sia chiaro, ma purtroppo è spesso inefficace se vuoi dare vita a qualcosa di radicalmente altro che abbia una logica diversa. Se lavori solo sul metodo crei la copia del software proprietario che funziona esattamente come il software proprietario. 
Stando così le cose, non ha senso lavorare oggi su nuovi tipi di intelligenze artificiali se ci si accontenta di replicare il modello di quelle esistenti e non si prova invece a forzare certi limiti, altrimenti non si fa altro che reiterare con un metodo diverso l’esistente, il già visto. 
Invece andare a scoprire cosa hanno da insegnarci certi saperi che sono al di là del sapere informatico, certi saperi che hanno a che fare, per esempio, con una visione decoloniale della realtà, una visione ecologica e antispecista, una visione che si confronta con quei pensieri e quelle pratiche che ci arrivano dal transfeminismo queer, dalla riflessione sul postumano che sa articolare una critica al transumano. Quella ci appare una buona strada per stare dalla parte delle macchine e dare vita a un’intelligenza artificiale finalmente non più umana, perché il progetto umano (patriarcale, bianco, borghese, normo-abile, sempre al centro del mondo) non ha funzionato, va abbandonato. E prima lo si abbandona e meglio staremo tuttu e tutte quante.

Questo sito utilizza i cookie per migliorare la tua esperienza. Cliccando su qualsiasi link in questa pagina, dai il tuo consenso al loro utilizzo.

Non usiamo analitici... Clicca per più informazioni