rewriters.it, 22 novembre 2024 Come resistere alle Big Tech che si fanno Stato
Una raccolta di testi per resistere alle tecnologie informatiche commerciali. “Hacking del sé” raccoglie alcune riflessioni
Il gruppo di ricerca indipendente Ippolita si occupa da molti anni, ormai, di informatica e di tecnologie da un punto di vista militante e libertario, come testimoniano le sue numerose pubblicazioni. La raccolta di testi recentemente uscita per le edizioni Agenzia X, Hacking del sé. Disertare il capitalismo del controllo, raccoglie alcune delle riflessioni più stimolanti prodotte dal collettivo negli ultimi anni.
I temi intorno a cui si articola il discorso sono eterogenei e danno la misura dell’approccio intersezionale del gruppo, che abbraccia esplicitamente le istanze di giustizia sociale transfemminista, decoloniale e antispecista, collegate fra loro dalla critica alla tecnologia dominante:
"La mercificazione del vivente non passa solo attraverso le tecnologie riproduttive, lo sfruttamento animale, la manipolazione delle sementi e lo sfruttamento più o meno schiavile della manodopera, ma passa anche attraverso dispositivi tecnologici progettati per acquisire una delega sull’organizzazione sociale e cognitiva." (pp. 52-53)
Il filo conduttore è quello di un discorso tecnopolitico in grado di decostruire l’apparente neutralità/gratuità dei social network commerciali (e, in generale, delle tecnologie digitali che ormai percepiamo come naturali), e al tempo stesso di elaborare un pensiero costruttivo a partire dal concetto che dà il titolo al libro. Che cos’è, dunque, l’hacking del sé? A che cosa si oppone?
L’informatica del dominio
Il libro richiama a più riprese elementi di critica della narrazione salvifica dell’informatica proposta dalle istituzioni e dalle multinazionali elaborati dal collettivo negli anni (un utile compendio in tal senso è certamente Tecnologie del dominio. Lessico minimo di Autodifesa Digitale, 2017).
Per esempio, scopriamo in che modo il l’architettura e il design delle piattaforme social o degli smartphone sono pensate per indurre norme e comportamenti ben precisi, lasciando poco spazio alla libertà di espressione, alla creatività o alla condivisione collettiva di emozioni, istanze e riflessioni critiche, tramite dispositivi come quello della gamificazione o del default power, o della profilazione e della gestione dell’identità digitale. Concetti come questi, apparentemente tecnici, vengono illustrati in modo del tutto comprensibile, ma, soprattutto vengono inquadrati in una riflessione autenticamente filosofica sul senso di questo incessante processo di concentrazione di potere tecnologico.
Che cos’è che domina questo processo, chiede Ippolita? La norma strumentale, per cui siamo tutti oggetti utili al profitto. E tale norma è precedente alle stesse tecnologie digitali, dal punto di vista logico e storico. Prende la forma di una delega tecnica (il default power ne è una manifestazione eclatante) che è in realtà molto di più: è una delega sociale e politica. Per questo, le soluzioni per opporsi non possono mai essere meramente tecniche; al contrario, dovranno attingere alla critica politica. Non semplicemente tecnologie open al posto di tecnologie proprietarie, ma tecnologie conviviali.
Ippolita mette alla prova questo approccio in numerosi ambiti. Per non fare che un esempio, la crittografia. Contrariamente a quanto sostenuto da alcuni settori dell’ambiente cyberpunk, la crittografia non è la panacea di tutti i mali, e al tempo stesso non è il problema in sé e per sé. Il punto dirimente è invece la capacità di intessere un discorso politico sull’uso di una tecnologia pesante che può persino costituire una forma di suprematismo; la capacità di sostituire alla soluzione tecnica un lavoro politico collettivo sulla creazione di comunità basate sulla fiducia, sull’ecologia della comunicazione e su una cura di sé che non è mai inchiodata al livello individuale, ma al contrario implica sempre un’apertura all’altrə. Un discorso analogo può essere ed è fatto per l’apologia del P2P (peer-to-peer).
La cura di sé oggi
L’hacking del sé è dunque una pratica – o, meglio ancora, un’attitudine, un atteggiamento, una postura – che richiama l’idea foucaultiana di cura di sé e la riattiva per resistere al potere dell’informatica commerciale. Leggiamo direttamente come lo definisce Ippolita:
"Per hacking del sé, ispirandoci ai lavori dell’ultimo Foucault, intendiamo un esercizio di cura del sé che inizia con il comprendere quale tipo di norma le megamacchine sono capaci di farci assumere, per capire come disinnescarla prima che la sua forza ci renda conformi e oppressi. Avere riguardo per il proprio corpo digitale, proteggerlo perché si emancipi dall’informatica commerciale, riconoscere l’importanza che ha nella nostra vita, significa fare un passo di consapevolezza tecnica e nel contempo di responsabilità etica verso noi stessi e verso la comunità." (p. 63)
Pars destruens e pars construens sono qui ben lungi dall’ignorare quell’elemento fondamentale che è la corporeità. Se, per esempio, la gamificazione si basa sull’attivazione di precisi processi chimici nel corpo dell’utente, la resistenza alle tecnologie commerciali non potrà che rivalutare la funzione dei nostri corpi materiali. Il bersaglio critico, qui, è il transumanismo, definito a partire da un approccio transfemminista come “una propaganda che vede l’esperienza organica e la morte come un bug da fixare” e che insegue, in definitiva, il sogno dell’immortalità (tecnologica). Ad esso andrà contrapposta una postura che affonda le radici nella pedagogia hacker con la sua voglia di scoprire e di mettere le mani nei dispositivi senza il profitto come obiettivo.
E torniamo, quindi, alle tecnologie conviviali, espressione, non a caso, coniata da quell’Ivan Illich di cui Ippolita è oggi uno dei più fini interpreti. Queste non sono semplici strumenti alternativi o gratuiti, sono ben di più:
"Sono un modo diverso di immaginare, fare e praticare le tecnologie, a misura di comunità. Un tipo di tecnologia non oppressiva che invece di promettere miracoli e produrre assoggettamento e asservimento, consente emancipazione e potenziamento ecosociale." (p. 62)
Si tratta insomma di dotarsi in primo luogo di strumenti di consapevolezza riguardo all’uso di oggetti apparentemente innocui, maneggevoli e gratuiti, per poi hackerare il proprio io digitale, e, con esso, le relazioni personali e politiche indotte dalle architetture di questi strumenti. Relazioni sempre più povere e frustranti a cui dobbiamo provare a sostituire relazioni autentiche e politicamente trasformative.
Non tutte le tecnologie del sé vanno in questa direzione. Ce ne vengono proposte continuamente di segno opposto, a partire da quelle di auto-promozione e potenziamento del sé, come il self branding. Se queste tecnologie ci spingono a potenziarci (in senso abilista, nota Ippolita), dobbiamo guardare decisamente altrove:
"Al potenziamento preferiamo l’impoteramento e la misurazione sistematica dell’ego la lasciamo al patriarcato." (p. 139)
Il gruppo di ricerca indipendente Ippolita si occupa da molti anni, ormai, di informatica e di tecnologie da un punto di vista militante e libertario, come testimoniano le sue numerose pubblicazioni. La raccolta di testi recentemente uscita per le edizioni Agenzia X, Hacking del sé. Disertare il capitalismo del controllo, raccoglie alcune delle riflessioni più stimolanti prodotte dal collettivo negli ultimi anni.
I temi intorno a cui si articola il discorso sono eterogenei e danno la misura dell’approccio intersezionale del gruppo, che abbraccia esplicitamente le istanze di giustizia sociale transfemminista, decoloniale e antispecista, collegate fra loro dalla critica alla tecnologia dominante:
"La mercificazione del vivente non passa solo attraverso le tecnologie riproduttive, lo sfruttamento animale, la manipolazione delle sementi e lo sfruttamento più o meno schiavile della manodopera, ma passa anche attraverso dispositivi tecnologici progettati per acquisire una delega sull’organizzazione sociale e cognitiva." (pp. 52-53)
Il filo conduttore è quello di un discorso tecnopolitico in grado di decostruire l’apparente neutralità/gratuità dei social network commerciali (e, in generale, delle tecnologie digitali che ormai percepiamo come naturali), e al tempo stesso di elaborare un pensiero costruttivo a partire dal concetto che dà il titolo al libro. Che cos’è, dunque, l’hacking del sé? A che cosa si oppone?
L’informatica del dominio
Il libro richiama a più riprese elementi di critica della narrazione salvifica dell’informatica proposta dalle istituzioni e dalle multinazionali elaborati dal collettivo negli anni (un utile compendio in tal senso è certamente Tecnologie del dominio. Lessico minimo di Autodifesa Digitale, 2017).
Per esempio, scopriamo in che modo il l’architettura e il design delle piattaforme social o degli smartphone sono pensate per indurre norme e comportamenti ben precisi, lasciando poco spazio alla libertà di espressione, alla creatività o alla condivisione collettiva di emozioni, istanze e riflessioni critiche, tramite dispositivi come quello della gamificazione o del default power, o della profilazione e della gestione dell’identità digitale. Concetti come questi, apparentemente tecnici, vengono illustrati in modo del tutto comprensibile, ma, soprattutto vengono inquadrati in una riflessione autenticamente filosofica sul senso di questo incessante processo di concentrazione di potere tecnologico.
Che cos’è che domina questo processo, chiede Ippolita? La norma strumentale, per cui siamo tutti oggetti utili al profitto. E tale norma è precedente alle stesse tecnologie digitali, dal punto di vista logico e storico. Prende la forma di una delega tecnica (il default power ne è una manifestazione eclatante) che è in realtà molto di più: è una delega sociale e politica. Per questo, le soluzioni per opporsi non possono mai essere meramente tecniche; al contrario, dovranno attingere alla critica politica. Non semplicemente tecnologie open al posto di tecnologie proprietarie, ma tecnologie conviviali.
Ippolita mette alla prova questo approccio in numerosi ambiti. Per non fare che un esempio, la crittografia. Contrariamente a quanto sostenuto da alcuni settori dell’ambiente cyberpunk, la crittografia non è la panacea di tutti i mali, e al tempo stesso non è il problema in sé e per sé. Il punto dirimente è invece la capacità di intessere un discorso politico sull’uso di una tecnologia pesante che può persino costituire una forma di suprematismo; la capacità di sostituire alla soluzione tecnica un lavoro politico collettivo sulla creazione di comunità basate sulla fiducia, sull’ecologia della comunicazione e su una cura di sé che non è mai inchiodata al livello individuale, ma al contrario implica sempre un’apertura all’altrə. Un discorso analogo può essere ed è fatto per l’apologia del P2P (peer-to-peer).
La cura di sé oggi
L’hacking del sé è dunque una pratica – o, meglio ancora, un’attitudine, un atteggiamento, una postura – che richiama l’idea foucaultiana di cura di sé e la riattiva per resistere al potere dell’informatica commerciale. Leggiamo direttamente come lo definisce Ippolita:
"Per hacking del sé, ispirandoci ai lavori dell’ultimo Foucault, intendiamo un esercizio di cura del sé che inizia con il comprendere quale tipo di norma le megamacchine sono capaci di farci assumere, per capire come disinnescarla prima che la sua forza ci renda conformi e oppressi. Avere riguardo per il proprio corpo digitale, proteggerlo perché si emancipi dall’informatica commerciale, riconoscere l’importanza che ha nella nostra vita, significa fare un passo di consapevolezza tecnica e nel contempo di responsabilità etica verso noi stessi e verso la comunità." (p. 63)
Pars destruens e pars construens sono qui ben lungi dall’ignorare quell’elemento fondamentale che è la corporeità. Se, per esempio, la gamificazione si basa sull’attivazione di precisi processi chimici nel corpo dell’utente, la resistenza alle tecnologie commerciali non potrà che rivalutare la funzione dei nostri corpi materiali. Il bersaglio critico, qui, è il transumanismo, definito a partire da un approccio transfemminista come “una propaganda che vede l’esperienza organica e la morte come un bug da fixare” e che insegue, in definitiva, il sogno dell’immortalità (tecnologica). Ad esso andrà contrapposta una postura che affonda le radici nella pedagogia hacker con la sua voglia di scoprire e di mettere le mani nei dispositivi senza il profitto come obiettivo.
E torniamo, quindi, alle tecnologie conviviali, espressione, non a caso, coniata da quell’Ivan Illich di cui Ippolita è oggi uno dei più fini interpreti. Queste non sono semplici strumenti alternativi o gratuiti, sono ben di più:
"Sono un modo diverso di immaginare, fare e praticare le tecnologie, a misura di comunità. Un tipo di tecnologia non oppressiva che invece di promettere miracoli e produrre assoggettamento e asservimento, consente emancipazione e potenziamento ecosociale." (p. 62)
Si tratta insomma di dotarsi in primo luogo di strumenti di consapevolezza riguardo all’uso di oggetti apparentemente innocui, maneggevoli e gratuiti, per poi hackerare il proprio io digitale, e, con esso, le relazioni personali e politiche indotte dalle architetture di questi strumenti. Relazioni sempre più povere e frustranti a cui dobbiamo provare a sostituire relazioni autentiche e politicamente trasformative.
Non tutte le tecnologie del sé vanno in questa direzione. Ce ne vengono proposte continuamente di segno opposto, a partire da quelle di auto-promozione e potenziamento del sé, come il self branding. Se queste tecnologie ci spingono a potenziarci (in senso abilista, nota Ippolita), dobbiamo guardare decisamente altrove:
"Al potenziamento preferiamo l’impoteramento e la misurazione sistematica dell’ego la lasciamo al patriarcato." (p. 139)
di Marco Reggio
il manifesto, 14 novembre 2024 Come resistere alle Big Tech che si fanno Stato
Intervista al Gruppo Ippolita, il collettivo indipendente di attivisti libertari che studiano e scrivono sulla tecnopolitica e sulla filosofia della tecnologia: «Trump-Musk: quando le Corporation fanno proprie le parole d’ordine più reazionarie, bisogna hackerare il loro gioco. Bisogna confrontarsi con la cultura queer, il transfemminismo, l’antispecismo e la blackness. Connettere l’immaginario e le lotte che possiamo portare avanti».
Il gruppo di ricerca Ippolita è un collettivo indipendente che si occupa di tecnopolitica e di filosofia della tecnologia. Associa l’attivismo politico libertario alla riflessione sui saperi tecnici e teorici. Il suo progetto è l’«hacking del sé», cioè cosa fare per sottrarsi al controllo del capitalismo della rete. Un’esigenza più viva che mai dopo che Trump è tornato al potere e si è alleato con Elon Musk.
Avete sostenuto che l’anarcocapitalismo ha conteso all’«etica hacker» l’egemonia sulla rete. Ora che Musk è stato nominato da Trump ministro all’anarcocapitalismo si può dire che questa idea politica abbia vinto?
Sembrerebbe di sì. Con Musk Trump vuole andare verso la costruzione di uno Stato minimo realizzato. Sempre che non litighino e si dividano dopo.
Cos’è lo «Stato minimo»?
Tagliare due triliardi di dollari su sei di spesa sociale che non è destinata solo alla «burocrazia» come dice Trump, ma a quella pallida idea di Welfare che c’è negli Stati Uniti, i servizi ai cittadini. Nello Stato minimo sussiste uno stato di diritto, ma i diritti umani sono pensati a partire dalla tutela esclusiva della proprietà privata. E viene mantenuto il controllo dell’esercito e della polizia. Nella stessa direzione va Milei in Argentina.
Sembra che Musk sia una specie di ideologo che ha la licenza di parlare di tutto: attaccare la magistratura italiana per esempio…
Sta spostando l’opinione pubblica italiana per legittimare l’iniziativa del potere più reazionario sulla deportazione dei migranti in Albania. Del resto Trump vuole fare la stessa cosa negli Stati Uniti: deportare milioni di persone.
Qual è la differenza tra Musk e le aziende classiche della Silicon Valley: Facebook, ad esempio?
Musk non viene dall’«ideologia californiana». Sia pure annacquati, in essa permangono alcuni ideali che si rifanno ai movimenti studenteschi degli anni Sessanta che si svilupparono in California. La Silicon Valley, in realtà, ha ribaltato i valori di quei movimenti e li ha spacciati come propri. Musk non intende farsi passare per un democratico. A lui non interessa fare il giochino di Google o Apple. La sua è una cultura autoritaria. Ama passare per un cane sciolto. In realtà è uno degli imprenditori più sussidiati dallo Stato.
I suoi affari ne gioveranno?
Certo, già ora si stanno rivalutando. L’aiuto dello Stato è fondamentale per questo capitalismo.
Avete da poco curato e tradotto «Come distruggere il capitalismo di sorveglianza» di Cory Doctorow per Mimesis. La tesi del libro è che bisogna spezzare i monopoli della rete per fermare questo tipo di capitalismo. Si può dire che oggi i monopoli abbiano occupato il governo e si fanno leggi?
Sì. Il Trump 2 assomiglia alla realizzazione dei peggiori incubi di tanti attivisti e non solo per i diritti digitali. Le Big Tech si fanno Stato. Le Corporation fanno proprie le parole d’ordine più reazionarie.
Il dibattito sulla fine dei monopoli risale a prima del mandato di Biden. Perché non è stato fatto nulla nel frattempo?
Per una questione di rapporti di forza tra la sua amministrazione e le Big Tech. Doctorow ci ha posti davanti a un bivio: o si smantellano i monopoli digitali con le leggi antitrust, oppure lo Stato si rivolgerà alle Big Tech e gli affiderà il ruolo di normare la rete. Ed è quello che è successo sulle violazioni della privacy, sulla pirateria o sul bullismo. Ai fornitori dei servizi è chiesto di farsi guardiani dei propri utenti. È una brutta scorciatoia. I Democratici Usa non hanno messo in discussione il potere dei monopoli. Non solo hanno perso, ma li hanno rafforzati.
Cosa fare? Lasciare Twitter, creare nuove piattaforme?
Abbandonare gli strumenti falsamente gratuiti è salutare, creare nuovi ambienti anche. A patto che si creino altre piattaforme che lavorino sovvertendo le norme del capitalismo e del consumismo. Bisogna rifiutare la gamificazione, il quantified self e il self branding che uccidono la cultura del conflitto e la possibilità di uno scambio, creare cooperazione e una comunicazione tra pari.
Nel vostro ultimo libro, pubblicato per Agenzia X, parlate di fare «Hacking del sé». Cosa significa? È un esercizio spirituale?
No, assolutamente. È un processo di presa di coscienza di tipo etico e politico, individuale e collettivo. Significa dirottare il gioco della competizione e mettere al centro la relazione tra noi e gli altri, anche attraverso la tecnologia digitale e il confronto con i saperi che ci vengono dalla cultura queer, dal transfemminismo, dall’antispecismo e dalla blackness.
Nel libro fate riferimento al transfemminismo. Quali pratiche vi ispirano i suoi movimenti?
La pratica del partire da sé, dai nostri corpi. Le tecnologie della sorveglianza creano forme sistemiche di violenza che vengono naturalizzate. È molto difficile riconoscere che uno strumento apparentemente innocuo come per esempio la geolocalizzazione è il principale strumento che ci insegna che essere controllate è cosa utile, dunque buona e giusta. Se un uomo ti controlla o se ti controlla una multinazionale in entrambi i casi è violenza e come tale va riconosciuta.
A chi oggi pensa che il potere ci ha fottuto cosa rispondete?
Parafrasando il filosofo Cornelius Castoriadis: per cambiare le cose c’è bisogno di dare spazio a un’immaginazione produttiva, cioè a un immaginario radicale, al fine di creare società altre all’altezza dei nostri desideri. C’è una forte connessione tra l’immaginario che agiamo e le lotte che possiamo portare avanti.
Il gruppo di ricerca Ippolita è un collettivo indipendente che si occupa di tecnopolitica e di filosofia della tecnologia. Associa l’attivismo politico libertario alla riflessione sui saperi tecnici e teorici. Il suo progetto è l’«hacking del sé», cioè cosa fare per sottrarsi al controllo del capitalismo della rete. Un’esigenza più viva che mai dopo che Trump è tornato al potere e si è alleato con Elon Musk.
Avete sostenuto che l’anarcocapitalismo ha conteso all’«etica hacker» l’egemonia sulla rete. Ora che Musk è stato nominato da Trump ministro all’anarcocapitalismo si può dire che questa idea politica abbia vinto?
Sembrerebbe di sì. Con Musk Trump vuole andare verso la costruzione di uno Stato minimo realizzato. Sempre che non litighino e si dividano dopo.
Cos’è lo «Stato minimo»?
Tagliare due triliardi di dollari su sei di spesa sociale che non è destinata solo alla «burocrazia» come dice Trump, ma a quella pallida idea di Welfare che c’è negli Stati Uniti, i servizi ai cittadini. Nello Stato minimo sussiste uno stato di diritto, ma i diritti umani sono pensati a partire dalla tutela esclusiva della proprietà privata. E viene mantenuto il controllo dell’esercito e della polizia. Nella stessa direzione va Milei in Argentina.
Sembra che Musk sia una specie di ideologo che ha la licenza di parlare di tutto: attaccare la magistratura italiana per esempio…
Sta spostando l’opinione pubblica italiana per legittimare l’iniziativa del potere più reazionario sulla deportazione dei migranti in Albania. Del resto Trump vuole fare la stessa cosa negli Stati Uniti: deportare milioni di persone.
Qual è la differenza tra Musk e le aziende classiche della Silicon Valley: Facebook, ad esempio?
Musk non viene dall’«ideologia californiana». Sia pure annacquati, in essa permangono alcuni ideali che si rifanno ai movimenti studenteschi degli anni Sessanta che si svilupparono in California. La Silicon Valley, in realtà, ha ribaltato i valori di quei movimenti e li ha spacciati come propri. Musk non intende farsi passare per un democratico. A lui non interessa fare il giochino di Google o Apple. La sua è una cultura autoritaria. Ama passare per un cane sciolto. In realtà è uno degli imprenditori più sussidiati dallo Stato.
I suoi affari ne gioveranno?
Certo, già ora si stanno rivalutando. L’aiuto dello Stato è fondamentale per questo capitalismo.
Avete da poco curato e tradotto «Come distruggere il capitalismo di sorveglianza» di Cory Doctorow per Mimesis. La tesi del libro è che bisogna spezzare i monopoli della rete per fermare questo tipo di capitalismo. Si può dire che oggi i monopoli abbiano occupato il governo e si fanno leggi?
Sì. Il Trump 2 assomiglia alla realizzazione dei peggiori incubi di tanti attivisti e non solo per i diritti digitali. Le Big Tech si fanno Stato. Le Corporation fanno proprie le parole d’ordine più reazionarie.
Il dibattito sulla fine dei monopoli risale a prima del mandato di Biden. Perché non è stato fatto nulla nel frattempo?
Per una questione di rapporti di forza tra la sua amministrazione e le Big Tech. Doctorow ci ha posti davanti a un bivio: o si smantellano i monopoli digitali con le leggi antitrust, oppure lo Stato si rivolgerà alle Big Tech e gli affiderà il ruolo di normare la rete. Ed è quello che è successo sulle violazioni della privacy, sulla pirateria o sul bullismo. Ai fornitori dei servizi è chiesto di farsi guardiani dei propri utenti. È una brutta scorciatoia. I Democratici Usa non hanno messo in discussione il potere dei monopoli. Non solo hanno perso, ma li hanno rafforzati.
Cosa fare? Lasciare Twitter, creare nuove piattaforme?
Abbandonare gli strumenti falsamente gratuiti è salutare, creare nuovi ambienti anche. A patto che si creino altre piattaforme che lavorino sovvertendo le norme del capitalismo e del consumismo. Bisogna rifiutare la gamificazione, il quantified self e il self branding che uccidono la cultura del conflitto e la possibilità di uno scambio, creare cooperazione e una comunicazione tra pari.
Nel vostro ultimo libro, pubblicato per Agenzia X, parlate di fare «Hacking del sé». Cosa significa? È un esercizio spirituale?
No, assolutamente. È un processo di presa di coscienza di tipo etico e politico, individuale e collettivo. Significa dirottare il gioco della competizione e mettere al centro la relazione tra noi e gli altri, anche attraverso la tecnologia digitale e il confronto con i saperi che ci vengono dalla cultura queer, dal transfemminismo, dall’antispecismo e dalla blackness.
Nel libro fate riferimento al transfemminismo. Quali pratiche vi ispirano i suoi movimenti?
La pratica del partire da sé, dai nostri corpi. Le tecnologie della sorveglianza creano forme sistemiche di violenza che vengono naturalizzate. È molto difficile riconoscere che uno strumento apparentemente innocuo come per esempio la geolocalizzazione è il principale strumento che ci insegna che essere controllate è cosa utile, dunque buona e giusta. Se un uomo ti controlla o se ti controlla una multinazionale in entrambi i casi è violenza e come tale va riconosciuta.
A chi oggi pensa che il potere ci ha fottuto cosa rispondete?
Parafrasando il filosofo Cornelius Castoriadis: per cambiare le cose c’è bisogno di dare spazio a un’immaginazione produttiva, cioè a un immaginario radicale, al fine di creare società altre all’altezza dei nostri desideri. C’è una forte connessione tra l’immaginario che agiamo e le lotte che possiamo portare avanti.
Roberto Ciccarelli
Pulp libri, 23 ottobre 2024Per un hacking del sé
Rinunciare al nome, all’identità. Trasformare la produttività in ozio creativo. Hackerare le nostre vite nell’era delle piattaforme e del controllo digitale personalizzato è un po’ come esibire un vecchio Nokia 3310 scassato a una riunione di lavoro. Per il Collettivo Ippolita, tornato in libreria con l’antologia Hacking del sé (Agenzia X), è anche un modo per stare dalle parte delle macchine e contro il capitalismo.
Il testo seguente, “Inconscio, macchine, AI e posthuman”, che pubblichiamo per gentile concessione dell’editore Agenzia X, è tratto dal nuovo libro di Ippolita, “Hacking del sé” (Agenzia X, 2024). La raccolta di saggi è un viaggio – agile e non accademico, come nello stile di questo collettivo, formatosi all’inizio del secolo – attraverso saperi e corpi non conformi con la normalità delle piattaforme e del controllo digitale individualizzato. Un viaggio che è anche l’invito alla rilettura di autori e autrici come Donna Haraway, Antonio Caronia, Bernard Stiegler, Antonine Artaud, Rosi Braidotti, Mauro Perniola, Philip K. Dick, William Burroughs che ci accompagnano in quello che si riconosce come “un esercizio di cura per disinnescare le norme inscritte nei nostri corpi dal capitalismo”. Il brano che presentiamo introduce il tema delle cosiddette AI (Artificial Intelligence), una definizione entrata nell’uso con il suo carico di ingombranti sottotesti, dal punto di vista dell’inconscio della macchina e delle sue epistemologie meno ovvie. Un approccio che sintetizza anche il metodo di un libro e di percorso, quello compiuto dal collettivo Ippolita negli ultimi cinque anni, attraverso il confronto con molteplici realtà di movimento e la creazione di iniziative editoriali quali le collane Culture Radicali (Melteni), Postuman3 e Selene (Mimesis).
Noi non siamo stati degli allievi di Antonio Caronia, ma lo abbiamo incrociato diverse volte nel corso degli anni.
È stato più che altro un interlocutore, che poi come gruppo Ippolita abbiamo ri-incrociato in alcuni spazi sociali come Bulk e Pergola, tra realtà autogestite e hacklab.
Quindi un interlocutore, una persona con cui ragionare e che per noi è di fatto parte di una genealogia. Insieme ad Antonio Caronia, per noi sono stati fondamentali anche altre persone dai più diversi profili: studiosx, militanti, giornalistx, docenti.
Per esempio, in quegli anni, Mario Perniola o Benedetto Vecchi e il gruppo intorno alla rivista “Millepiani”, come Tiziana Villani e Ubaldo Fadini.
E poi altri ancora che magari abbiamo incontrato facendo ricerca, studiando. Perché il nostro modo di fare ricerca è non accademico, ossia più che altro montiamo e smontiamo dei cantieri, e dentro questi cantieri ci finiscono poi tanti stimoli diversi, per cui sicuramente emergono una rete di riferimenti, che erano anche quelli di Caronia, tra cui Dick, Burroughs, Ballard e Artaud.
C’è ne sono stati poi altri, uno sicuramente importante che abbiamo condiviso, Donna Haraway, ma anche Rosi Braidotti e, in tempi più recenti, Bernard Stigler. Per arrivare poi a ricercatori e ricercatrici più giovani, Simone Browne, Alexander Galloway, Andrew Goodman e altrx. Di tutta questa nostra attività cerchiamo di tenere traccia in molti modi. Uno di questi modi è costruire un altro cantiere che prende poi la forma di una collana di libri che si chiama Cultura radicali.
Allora per onorare un pezzo della nostra genealogia, qualche anno fa, abbiamo deciso di rivolgerci a Loretta Borrelli e a Fabio Malagnini per cercare di costruire un testo che ridesse voce al pensiero di Antonio Caronia.
Anche se nel frattempo, da quando è venuto a mancare a oggi, tante persone si sono messe in un solco che era in qualche modo quello di Antonio, ci sembrava che la voce di Antonio corresse il rischio di essere dimenticata.
Invece noi volevamo farla sentire ancora. Ci siamo allora rivolti a Loretta e Fabio e grazie a loro siamo riusciti a far pubblicare Dal cyborg al postumano, una collezione di testi di Antonio con un importante inedito, tratto da una sua lezione in Accademia.
Diciamo questo per spiegare perché siamo qua con il microfono in mano e rendere comprensibile la prospettiva da cui parliamo.
Il nostro intervento sarà sull’inconscio delle macchine. Per noi vuol dire fare riferimento alla questione dell’intelligenza artificiale. L’inconscio delle macchine è l’intelligenza artificiale, l’inconscio dell’intelligenza artificiale è qualcosa che bisogna, invece, andare a guardare molto da vicino.
Innanzitutto perché questa definizione, come abbiamo imparato è una definizione totalmente forviante, però nasconde una serie di sottotesti.
Ed è interessante andare a vedere in questo gioco di metafore dove si può arrivare.
Partiamo dal concetto di intelligenza. Non è detto che l’intelligenza sia sempre la stessa, cioè che si intenda sempre la stessa cosa.
Ci sono tanti tipi di intelligenze. Ci sono intelligenze che appartengono all’organico e altre che appartengono all’inorganico.
Ci sono intelligenze emotive, spaziali, musicali, artistiche, matematiche, per restare nell’umano. Ma ci sono intelligenze tra l’organico e l’inorganico, ci sono intelligenze delle piante. E poi ci sono le intelligenze collettive, le intelligenze sociali, le intelligenze dei corpi sociali.
Quindi già partendo da questo punto ci accorgiamo che parlare di intelligenza artificiale ci rivela un tratto caratteristico dell’immagine del sapere gerarchico, ossia del sapere che si vuole “alto”, cioè quello della reductio ad unum.
Che è tipica, per altro, dell’informatica novecentesca e della storia della cibernetica, vale a dire il tentativo di ridurre la complessità a un unico.
Allora è invece interessante andare a togliere il coperchio e vedere quali sono proprio gli archetipi, i complessi, le costellazioni dell’inconscio delle macchine.
Ossia quali epistemologie sono embeddate nel codice. E quello che scopriamo è che queste intelligenze artificiali che ci stanno propinando sono fin troppo umane. Questo è un po’ il problema. Sono fin troppo umane perché sono terribilmente posizionate in senso bianco, patriarcale, borghese.
L’intelligenza artificiale è troppo umana perché dominata da un mercato anarcocapitalista.
Chi produce oggi l’intelligenza artificiale? L’intelligenza artificiale non è un concetto, è un’insieme di pratiche, è un’insieme di oggetti.
Questo insieme di oggetti è segnato, ha una storia, ha una vicenda alle spalle.
Questa vicenda che ci viene consegnata oggi è in gran parte debitrice di un contesto culturale che è un contesto economico con un segno ben preciso.
Parlando dunque di intelligenza artificiale non dobbiamo fare l’errore di posizionare questo oggetto immaginario lontano dal mondo che abitiamo. È fin troppo dentro il mondo che abitiamo. Ed è segnato in quel modo lì. È un prodotto dell’anarcocapitalismo.
Non è detto che sia per forza così, ma oggi le intelligenze artificiali di cui parliamo sono questo. Vengono sviluppate in laboratori che ragionano all’interno di una logica storicamente determinata.
Andare allora a vedere le epistemologie che sono praticate dentro quei laboratori – e a cui lì si dà corpo – ci aiuta a capire di che cosa stiamo parlando. E su questo ci sono chiaramente altri interlocutori che ci servono, che ci aiutano. Alcuni li abbiamo nominati e altri possiamo nominarli nuovamente. Sono persone che ci aiutano a capire la logica che dà forma al sistema computazione.
Uno su tutti David Golumbia, che nel 2009 ha scritto un saggio molto bello ma semisconosciuto proprio su questo tema. Il concetto di computazionalismo che descrive in The Cultural Logic of Computation riguarda l’insieme di credenze nel potere del calcolo, e della sua novità, che consente a esso di passare per un agente di cambiamento radicale, rafforzando tuttavia molteplici forme di ragione strumentale e di disuguaglianze politiche ed economiche.
Un altro autore più vicino a noi è Seb Franklin che ragiona sul tema del controllo come logica propria del mondo digitale, e che ne individua l’emersione attraverso tre fili intrecciati: il primo consiste nel rapporto tra informazione, lavoro e gestione sociale nell’economia politica e nella tecnologia tra il XIX e la seconda metà del XX secolo. Il secondo riguarda lo sviluppo e la diffusione delle metafore uomo-computer nei decenni centrali del Novecento. Il terzo osserva l’ampiezza e la penetrazione di questi principi informatici in alcune pratiche socioeconomiche e culturali tra la fine del XX e l’inizio del XXI secolo.
Di grande interesse è sicuramente anche Virginia Eubanks che ragiona sul cambiamento epocale che hanno subito i processi deliberativi nei settori della finanza, dell’occupazione, della politica, della salute e dei servizi dal sorgere dell’era digitale, ossia sulle conseguenze che comporta nella vita dei normali cittadini la cessione di gran parte del potere decisionale a macchine digitali, sistemi automatizzati e algoritmi di classificazione e modelli di rischio predittivo.
Ugualmente illuminante è il lavoro di Safiya Umoja Noble, in Algorithms of Oppression, che indaga le relazioni sociali oppressive messe in atto dalle nuove modalità di profiling razziale. La sua riflessione fa riferimento al fatto che su Internet e nell’uso quotidiano della tecnologia, la discriminazione è incorporata nel codice dei computer e, sempre più spesso, nelle tecnologie di intelligenza artificiale da cui dipendiamo, per scelta o meno. L’uso pressoché universale di software algoritmici, visibili e invisibili alla gente comune, richiede secondo Noble un’analisi approfondita di quali valori siano prioritari in questi sistemi automatizzati per iniziare a comprendere le conseguenze a lungo termine di simili strumenti decisionali nel mascherare e aggravare le disuguaglianze sociali.
Questi e altri sono gli studi che ci possono aiutare per andare a interrogare le epistemologie e i presupposti ideologici che oggi vediamo in azione nel mondo digitale.
Operare quindi un’ampia riflessione per comprendere – anche genealogicamente – di cosa parliamo quando parliamo di intelligenza artificiale ci appare un compito urgente e certamente ci colloca in mezzo a tutti questi stimoli e queste stratificazioni culturali.
L’importante è capire che se è vero che queste intelligenze artificiali sono caratterizzate in questo modo, oggi, non per forza lo dovranno essere domani.
Per essere chiari: ci piace essere dalla parte delle macchine ma a modo nostro.
Una delle prime cose che penso in molti abbiamo notato in questi ultimi anni a proposito dell’intelligenza artificiale, è che si oscilla sempre tra due metafore. La prima è la metafora dell’intelligenza artificiale come qualcosa di predatorio, qualcosa che ci minaccia. Ed è interessante perché, parlandone con amici antispecisti, abbiamo notato che è da millenni che l’essere umano non è più abituato a essere cacciato. Qui si nota un intrigante ribaltamento dell’abituale logica antropocentrica. Adesso forse potremmo capire cosa vuol dire diventare soggetti che vengono predati – probabilmente qualcuno non vede l’ora.
Però questa immagine dell’intelligenza artificiale come un apparato di cattura che deruba e saccheggia capacità ed energie, non è certo quello che ci auguriamo, non è la direzione verso cui vogliamo andare. Anzi è esattamente quello da cui vorremmo affrancarci. Per alcuni è certamente una forzatura voler vedere le cose in questo modo anche se, è giusto ricordarlo, il capitalismo estrattivo sembra non fare altro ed è attivo ben oltre il settore dell’industria digitale.
L’altra metafora nascosta nel discorso sull’intelligenza artificiale, l’altro polo del dibattito mainstream, speculare e opposto all’idea di una tecnologia che ci annienta, è che sia qualcosa al nostro servizio. Ci deve obbedire, deve fare quello che vogliamo. Questa è sostanzialmente un’idea di intelligenza artificiale nella quale si immagina che debba essere un servo zelante. Decenni di ricerca tecnologica per creare delle macchine schiave.
Anche questa concezione inconscia è interessante. Peraltro, poiché la lingua non perdona, facciamo presente che in italiano intelligenza artificiale ahimè si coniuga al femminile. Il risultato ci pare significativo: l’ennesima creatura femminile schiavizzata al nostro servizio. Ci sembra ci siano dei problemi, insomma.
Quindi come fare a non parteggiare né per la predazione, né per le nuove forme di schiavitù e i loro sostenitori. Il capitalismo contemporaneo ci dice: “Abbracciate il progresso! Criticare l’innovazione è da luddisti/cavernicoli/primitivisti! Fatevi furbi, usate i nuovi schiavi che abbiamo creato per voi!”.
La domanda allora diventa: come stare dalla parte delle macchine senza replicare questo atteggiamento che introietta l’ordine capitalista? Come far sì che le macchine non siano gli ennesimi esseri schiavizzati a nostro servizio?
Ecco, nel nostro percorso, meditando sul digitale ci siamo accorte che è fondamentale lavorare per destrutturare radicalmente i presupposti culturali dai quali si parte quando “facciamo codice”.
Di recente ci è stato chiesto di descrivere un breve poscritto polemico all’edizione italiana di The White Paper di Satoshi Nakamoto, il putativo inventore di Bitcoin. Abbiamo accettato di buon grado e l’abbiamo intitolato Fuori dall’idios kosmos tema per altro molto caro a Philip K. Dick. Fuori dall’idios kosmos perché c’è un problema legato proprio al suprematismo nerd, ossia al fatto che negli ultimi decenni chi maneggia il codice si è trovato nella posizione, non priva di un certo senso di vertigine, di avere in mano le chiavi della realtà, o almeno di avere l’impressione di averle. Ecco solo che tutto questo poi avviene in pochi laboratori tipicamente finanziati da chi tifa “status quo”. Pensiamo alla figura del ragazzino che lavora nel proprio garage, che è una figura mitica, anche questa va smontata, relativizzata, perché non è del tutto vera, però è vero che questi laboratori difficilmente vengono attraversati da intelligente altre. Difficilmente in questi laboratori si fa un ragionamento che va da al di là di come costruire un software elegantemente efficace.
Ci siamo accorte, per esempio, che lavorare sul metodo non basta. È fondamentale, sia chiaro, ma purtroppo è spesso inefficace se vuoi dare vita a qualcosa di radicalmente altro che abbia una logica diversa. Se lavori solo sul metodo crei la copia del software proprietario che funziona esattamente come il software proprietario.
Stando così le cose, non ha senso lavorare oggi su nuovi tipi di intelligenze artificiali se ci si accontenta di replicare il modello di quelle esistenti e non si prova invece a forzare certi limiti, altrimenti non si fa altro che reiterare con un metodo diverso l’esistente, il già visto.
Invece andare a scoprire cosa hanno da insegnarci certi saperi che sono al di là del sapere informatico, certi saperi che hanno a che fare, per esempio, con una visione decoloniale della realtà, una visione ecologica e antispecista, una visione che si confronta con quei pensieri e quelle pratiche che ci arrivano dal transfeminismo queer, dalla riflessione sul postumano che sa articolare una critica al transumano. Quella ci appare una buona strada per stare dalla parte delle macchine e dare vita a un’intelligenza artificiale finalmente non più umana, perché il progetto umano (patriarcale, bianco, borghese, normo-abile, sempre al centro del mondo) non ha funzionato, va abbandonato. E prima lo si abbandona e meglio staremo tuttu e tutte quante.
Il testo seguente, “Inconscio, macchine, AI e posthuman”, che pubblichiamo per gentile concessione dell’editore Agenzia X, è tratto dal nuovo libro di Ippolita, “Hacking del sé” (Agenzia X, 2024). La raccolta di saggi è un viaggio – agile e non accademico, come nello stile di questo collettivo, formatosi all’inizio del secolo – attraverso saperi e corpi non conformi con la normalità delle piattaforme e del controllo digitale individualizzato. Un viaggio che è anche l’invito alla rilettura di autori e autrici come Donna Haraway, Antonio Caronia, Bernard Stiegler, Antonine Artaud, Rosi Braidotti, Mauro Perniola, Philip K. Dick, William Burroughs che ci accompagnano in quello che si riconosce come “un esercizio di cura per disinnescare le norme inscritte nei nostri corpi dal capitalismo”. Il brano che presentiamo introduce il tema delle cosiddette AI (Artificial Intelligence), una definizione entrata nell’uso con il suo carico di ingombranti sottotesti, dal punto di vista dell’inconscio della macchina e delle sue epistemologie meno ovvie. Un approccio che sintetizza anche il metodo di un libro e di percorso, quello compiuto dal collettivo Ippolita negli ultimi cinque anni, attraverso il confronto con molteplici realtà di movimento e la creazione di iniziative editoriali quali le collane Culture Radicali (Melteni), Postuman3 e Selene (Mimesis).
Noi non siamo stati degli allievi di Antonio Caronia, ma lo abbiamo incrociato diverse volte nel corso degli anni.
È stato più che altro un interlocutore, che poi come gruppo Ippolita abbiamo ri-incrociato in alcuni spazi sociali come Bulk e Pergola, tra realtà autogestite e hacklab.
Quindi un interlocutore, una persona con cui ragionare e che per noi è di fatto parte di una genealogia. Insieme ad Antonio Caronia, per noi sono stati fondamentali anche altre persone dai più diversi profili: studiosx, militanti, giornalistx, docenti.
Per esempio, in quegli anni, Mario Perniola o Benedetto Vecchi e il gruppo intorno alla rivista “Millepiani”, come Tiziana Villani e Ubaldo Fadini.
E poi altri ancora che magari abbiamo incontrato facendo ricerca, studiando. Perché il nostro modo di fare ricerca è non accademico, ossia più che altro montiamo e smontiamo dei cantieri, e dentro questi cantieri ci finiscono poi tanti stimoli diversi, per cui sicuramente emergono una rete di riferimenti, che erano anche quelli di Caronia, tra cui Dick, Burroughs, Ballard e Artaud.
C’è ne sono stati poi altri, uno sicuramente importante che abbiamo condiviso, Donna Haraway, ma anche Rosi Braidotti e, in tempi più recenti, Bernard Stigler. Per arrivare poi a ricercatori e ricercatrici più giovani, Simone Browne, Alexander Galloway, Andrew Goodman e altrx. Di tutta questa nostra attività cerchiamo di tenere traccia in molti modi. Uno di questi modi è costruire un altro cantiere che prende poi la forma di una collana di libri che si chiama Cultura radicali.
Allora per onorare un pezzo della nostra genealogia, qualche anno fa, abbiamo deciso di rivolgerci a Loretta Borrelli e a Fabio Malagnini per cercare di costruire un testo che ridesse voce al pensiero di Antonio Caronia.
Anche se nel frattempo, da quando è venuto a mancare a oggi, tante persone si sono messe in un solco che era in qualche modo quello di Antonio, ci sembrava che la voce di Antonio corresse il rischio di essere dimenticata.
Invece noi volevamo farla sentire ancora. Ci siamo allora rivolti a Loretta e Fabio e grazie a loro siamo riusciti a far pubblicare Dal cyborg al postumano, una collezione di testi di Antonio con un importante inedito, tratto da una sua lezione in Accademia.
Diciamo questo per spiegare perché siamo qua con il microfono in mano e rendere comprensibile la prospettiva da cui parliamo.
Il nostro intervento sarà sull’inconscio delle macchine. Per noi vuol dire fare riferimento alla questione dell’intelligenza artificiale. L’inconscio delle macchine è l’intelligenza artificiale, l’inconscio dell’intelligenza artificiale è qualcosa che bisogna, invece, andare a guardare molto da vicino.
Innanzitutto perché questa definizione, come abbiamo imparato è una definizione totalmente forviante, però nasconde una serie di sottotesti.
Ed è interessante andare a vedere in questo gioco di metafore dove si può arrivare.
Partiamo dal concetto di intelligenza. Non è detto che l’intelligenza sia sempre la stessa, cioè che si intenda sempre la stessa cosa.
Ci sono tanti tipi di intelligenze. Ci sono intelligenze che appartengono all’organico e altre che appartengono all’inorganico.
Ci sono intelligenze emotive, spaziali, musicali, artistiche, matematiche, per restare nell’umano. Ma ci sono intelligenze tra l’organico e l’inorganico, ci sono intelligenze delle piante. E poi ci sono le intelligenze collettive, le intelligenze sociali, le intelligenze dei corpi sociali.
Quindi già partendo da questo punto ci accorgiamo che parlare di intelligenza artificiale ci rivela un tratto caratteristico dell’immagine del sapere gerarchico, ossia del sapere che si vuole “alto”, cioè quello della reductio ad unum.
Che è tipica, per altro, dell’informatica novecentesca e della storia della cibernetica, vale a dire il tentativo di ridurre la complessità a un unico.
Allora è invece interessante andare a togliere il coperchio e vedere quali sono proprio gli archetipi, i complessi, le costellazioni dell’inconscio delle macchine.
Ossia quali epistemologie sono embeddate nel codice. E quello che scopriamo è che queste intelligenze artificiali che ci stanno propinando sono fin troppo umane. Questo è un po’ il problema. Sono fin troppo umane perché sono terribilmente posizionate in senso bianco, patriarcale, borghese.
L’intelligenza artificiale è troppo umana perché dominata da un mercato anarcocapitalista.
Chi produce oggi l’intelligenza artificiale? L’intelligenza artificiale non è un concetto, è un’insieme di pratiche, è un’insieme di oggetti.
Questo insieme di oggetti è segnato, ha una storia, ha una vicenda alle spalle.
Questa vicenda che ci viene consegnata oggi è in gran parte debitrice di un contesto culturale che è un contesto economico con un segno ben preciso.
Parlando dunque di intelligenza artificiale non dobbiamo fare l’errore di posizionare questo oggetto immaginario lontano dal mondo che abitiamo. È fin troppo dentro il mondo che abitiamo. Ed è segnato in quel modo lì. È un prodotto dell’anarcocapitalismo.
Non è detto che sia per forza così, ma oggi le intelligenze artificiali di cui parliamo sono questo. Vengono sviluppate in laboratori che ragionano all’interno di una logica storicamente determinata.
Andare allora a vedere le epistemologie che sono praticate dentro quei laboratori – e a cui lì si dà corpo – ci aiuta a capire di che cosa stiamo parlando. E su questo ci sono chiaramente altri interlocutori che ci servono, che ci aiutano. Alcuni li abbiamo nominati e altri possiamo nominarli nuovamente. Sono persone che ci aiutano a capire la logica che dà forma al sistema computazione.
Uno su tutti David Golumbia, che nel 2009 ha scritto un saggio molto bello ma semisconosciuto proprio su questo tema. Il concetto di computazionalismo che descrive in The Cultural Logic of Computation riguarda l’insieme di credenze nel potere del calcolo, e della sua novità, che consente a esso di passare per un agente di cambiamento radicale, rafforzando tuttavia molteplici forme di ragione strumentale e di disuguaglianze politiche ed economiche.
Un altro autore più vicino a noi è Seb Franklin che ragiona sul tema del controllo come logica propria del mondo digitale, e che ne individua l’emersione attraverso tre fili intrecciati: il primo consiste nel rapporto tra informazione, lavoro e gestione sociale nell’economia politica e nella tecnologia tra il XIX e la seconda metà del XX secolo. Il secondo riguarda lo sviluppo e la diffusione delle metafore uomo-computer nei decenni centrali del Novecento. Il terzo osserva l’ampiezza e la penetrazione di questi principi informatici in alcune pratiche socioeconomiche e culturali tra la fine del XX e l’inizio del XXI secolo.
Di grande interesse è sicuramente anche Virginia Eubanks che ragiona sul cambiamento epocale che hanno subito i processi deliberativi nei settori della finanza, dell’occupazione, della politica, della salute e dei servizi dal sorgere dell’era digitale, ossia sulle conseguenze che comporta nella vita dei normali cittadini la cessione di gran parte del potere decisionale a macchine digitali, sistemi automatizzati e algoritmi di classificazione e modelli di rischio predittivo.
Ugualmente illuminante è il lavoro di Safiya Umoja Noble, in Algorithms of Oppression, che indaga le relazioni sociali oppressive messe in atto dalle nuove modalità di profiling razziale. La sua riflessione fa riferimento al fatto che su Internet e nell’uso quotidiano della tecnologia, la discriminazione è incorporata nel codice dei computer e, sempre più spesso, nelle tecnologie di intelligenza artificiale da cui dipendiamo, per scelta o meno. L’uso pressoché universale di software algoritmici, visibili e invisibili alla gente comune, richiede secondo Noble un’analisi approfondita di quali valori siano prioritari in questi sistemi automatizzati per iniziare a comprendere le conseguenze a lungo termine di simili strumenti decisionali nel mascherare e aggravare le disuguaglianze sociali.
Questi e altri sono gli studi che ci possono aiutare per andare a interrogare le epistemologie e i presupposti ideologici che oggi vediamo in azione nel mondo digitale.
Operare quindi un’ampia riflessione per comprendere – anche genealogicamente – di cosa parliamo quando parliamo di intelligenza artificiale ci appare un compito urgente e certamente ci colloca in mezzo a tutti questi stimoli e queste stratificazioni culturali.
L’importante è capire che se è vero che queste intelligenze artificiali sono caratterizzate in questo modo, oggi, non per forza lo dovranno essere domani.
Per essere chiari: ci piace essere dalla parte delle macchine ma a modo nostro.
Una delle prime cose che penso in molti abbiamo notato in questi ultimi anni a proposito dell’intelligenza artificiale, è che si oscilla sempre tra due metafore. La prima è la metafora dell’intelligenza artificiale come qualcosa di predatorio, qualcosa che ci minaccia. Ed è interessante perché, parlandone con amici antispecisti, abbiamo notato che è da millenni che l’essere umano non è più abituato a essere cacciato. Qui si nota un intrigante ribaltamento dell’abituale logica antropocentrica. Adesso forse potremmo capire cosa vuol dire diventare soggetti che vengono predati – probabilmente qualcuno non vede l’ora.
Però questa immagine dell’intelligenza artificiale come un apparato di cattura che deruba e saccheggia capacità ed energie, non è certo quello che ci auguriamo, non è la direzione verso cui vogliamo andare. Anzi è esattamente quello da cui vorremmo affrancarci. Per alcuni è certamente una forzatura voler vedere le cose in questo modo anche se, è giusto ricordarlo, il capitalismo estrattivo sembra non fare altro ed è attivo ben oltre il settore dell’industria digitale.
L’altra metafora nascosta nel discorso sull’intelligenza artificiale, l’altro polo del dibattito mainstream, speculare e opposto all’idea di una tecnologia che ci annienta, è che sia qualcosa al nostro servizio. Ci deve obbedire, deve fare quello che vogliamo. Questa è sostanzialmente un’idea di intelligenza artificiale nella quale si immagina che debba essere un servo zelante. Decenni di ricerca tecnologica per creare delle macchine schiave.
Anche questa concezione inconscia è interessante. Peraltro, poiché la lingua non perdona, facciamo presente che in italiano intelligenza artificiale ahimè si coniuga al femminile. Il risultato ci pare significativo: l’ennesima creatura femminile schiavizzata al nostro servizio. Ci sembra ci siano dei problemi, insomma.
Quindi come fare a non parteggiare né per la predazione, né per le nuove forme di schiavitù e i loro sostenitori. Il capitalismo contemporaneo ci dice: “Abbracciate il progresso! Criticare l’innovazione è da luddisti/cavernicoli/primitivisti! Fatevi furbi, usate i nuovi schiavi che abbiamo creato per voi!”.
La domanda allora diventa: come stare dalla parte delle macchine senza replicare questo atteggiamento che introietta l’ordine capitalista? Come far sì che le macchine non siano gli ennesimi esseri schiavizzati a nostro servizio?
Ecco, nel nostro percorso, meditando sul digitale ci siamo accorte che è fondamentale lavorare per destrutturare radicalmente i presupposti culturali dai quali si parte quando “facciamo codice”.
Di recente ci è stato chiesto di descrivere un breve poscritto polemico all’edizione italiana di The White Paper di Satoshi Nakamoto, il putativo inventore di Bitcoin. Abbiamo accettato di buon grado e l’abbiamo intitolato Fuori dall’idios kosmos tema per altro molto caro a Philip K. Dick. Fuori dall’idios kosmos perché c’è un problema legato proprio al suprematismo nerd, ossia al fatto che negli ultimi decenni chi maneggia il codice si è trovato nella posizione, non priva di un certo senso di vertigine, di avere in mano le chiavi della realtà, o almeno di avere l’impressione di averle. Ecco solo che tutto questo poi avviene in pochi laboratori tipicamente finanziati da chi tifa “status quo”. Pensiamo alla figura del ragazzino che lavora nel proprio garage, che è una figura mitica, anche questa va smontata, relativizzata, perché non è del tutto vera, però è vero che questi laboratori difficilmente vengono attraversati da intelligente altre. Difficilmente in questi laboratori si fa un ragionamento che va da al di là di come costruire un software elegantemente efficace.
Ci siamo accorte, per esempio, che lavorare sul metodo non basta. È fondamentale, sia chiaro, ma purtroppo è spesso inefficace se vuoi dare vita a qualcosa di radicalmente altro che abbia una logica diversa. Se lavori solo sul metodo crei la copia del software proprietario che funziona esattamente come il software proprietario.
Stando così le cose, non ha senso lavorare oggi su nuovi tipi di intelligenze artificiali se ci si accontenta di replicare il modello di quelle esistenti e non si prova invece a forzare certi limiti, altrimenti non si fa altro che reiterare con un metodo diverso l’esistente, il già visto.
Invece andare a scoprire cosa hanno da insegnarci certi saperi che sono al di là del sapere informatico, certi saperi che hanno a che fare, per esempio, con una visione decoloniale della realtà, una visione ecologica e antispecista, una visione che si confronta con quei pensieri e quelle pratiche che ci arrivano dal transfeminismo queer, dalla riflessione sul postumano che sa articolare una critica al transumano. Quella ci appare una buona strada per stare dalla parte delle macchine e dare vita a un’intelligenza artificiale finalmente non più umana, perché il progetto umano (patriarcale, bianco, borghese, normo-abile, sempre al centro del mondo) non ha funzionato, va abbandonato. E prima lo si abbandona e meglio staremo tuttu e tutte quante.