La vita delle persone e la democrazia sono orientate sempre di più da macchine. La prima conseguenza è la riduzione dell’individuo ai suoi micro-comportamenti: le nostre azioni vengono continuamente analizzate ma viene rimosso il senso complessivo. Esistiamo sempre meno come individui o comunità e sempre di più come profili e avatar virtuali. Una seconda conseguenza è quella che Miguel Benasayag in La tirannia dell’algortimo chiama la cancellazione dell’alterità: un terrorista, un “gilet giallo” o un abitante della Val Susa è oggi trattato allo stesso modo, lo si delegittima riducendolo a un insieme di sintomi di cui occuparsi. La conclusione è che non si tollera nessun conflitto, l’altro è un barbaro e contro il barbaro posso applicare la barbarie. Con il dominio delle macchine (che i tempi pandemici sembrano rendere solo più evidente con lo smart working, la dad, i vaccini biotecnologici…), siamo piombati in un’epoca nuova, nella quale i nostri modi di agire abituali funzionano poco. L’artificiale è diventato dominante ovunque, malgrado nella vita di ogni giorno molte cose siano ancora legate a sistemi lineari. Abbiamo bisogno di imparare ad esistere in tale mondo in quanto umani, cioè imprevedibili, complessi e fragili. “Siamo di fronte alla tentazione e alla deriva di una gestione dei rischi disciplinari mediante le tecnologie digitali, il cui linguaggio pseudo-razionale è in realtà allo stesso livello di quello di una qualunque chiromante. La grande sfida attuale è comprendere questa complessità: a livello sanitario, ecologico, demografico, economico…”. Un estratto del nuovo libro del filosofo e psicoanalista francoargentino
Ampi stralci del capitolo “Teoria dell’agire”, tratto da La tirannia dell’algortimo (Vita e pensiero): conversazione di Régis Meyran con Miguel Benasayag.
Di fronte alla constatazione della colonizzazione del vivente da parte delle macchine e della delega delle decisioni all’intelligenza artificiale, quali possibilità si offrono di agire diversamente?
Per affrontare la questione dell’agire, occorre tener conto di un elemento centrale. Dobbiamo ammettere la realtà della governamentalità algoritmica: la vita degli individui e delle società è orientata e strutturata da macchine. Per la verità, il mondo algoritmico non è né per né contro il vivente, gli è indifferente. Ad esempio, molti magistrati in Francia si preoccupano per la possibilità che ci si diriga verso l’istituzione di tribunali algoritmici, poiché desiderano continuare a prendere decisioni secondo il foro interno della loro anima o coscienza. Tuttavia, l’intelligenza artificiale li assiste sempre più nella loro raccolta di dati, per comporre dossier o repertoriare casi di giurisprudenza… L’aiuto algoritmico è quindi già una realtà nel lavoro dei magistrati. La cosa più pericolosa, a mio avviso, è la giustizia predittiva, che pretende di identificare la pericolosità potenziale di un individuo a partire dall’analisi di micro-dati o micro-comportamenti. La minima segnalazione alla giustizia potrebbe essere presa in considerazione dagli algoritmi. E parlo appunto di microcomportamenti, non del fatto che qualcuno abbia guardato su internet come fabbricare una bomba! La cosa è molto più sottile: la macchina analizza dei micro-interessi – acquisti online, siti consultati ecc. – e, dalla loro correlazione, ‘decide’ della pericolosità o meno della persona.
Faccio un esempio: Google ha disposto un sistema di osservazione del modo in cui si utilizza la propria carta di credito in un anno, capace di prevedere con l’85% di attendibilità se l’utente della carta divorzierà nei tre anni successivi… Gli algoritmi funzionano a partire da quelle microinformazioni raccolte in massa nel mondo digitale che, messe insieme e correlate tra loro, determinano i profili.
Questo è il pericolo, mi pare, insito nella nozione di ‘comportamento’, che disegna routine ripetitive su una vita che è ben più aleatoria di quanto l’insieme di quelle routine lasci supporre….
Sì, ma non è affatto la questione del comportamento a essere qui in gioco. Intendo dire questo: la macchina di fatto assembla dei micro-comportamenti che si potrebbero designare come pre-individuali, un insieme di tracce numeriche, abitudini, regolarità, frammenti di attività che non hanno nulla a che vedere con il risultato dell’interpretazione. Nel caso di certe malattie, ad esempio, l’intenzione è quella di identificare delle correlazioni per definire una medicina preventiva, ma ciò avviene sulla base di dati che molto spesso non hanno alcuna relazione con la salute della persona!
LEGGI ANCHE Ci salveranno i miliardari Silvia Ribeiro Più digitali, meno umani Aldo Zanchetta Le colonie del nostro tempo e il filantrocapitalismo Vandana Shiva Il dominio di Big Tech Davide Lamanna Il capitalismo della sorveglianza Carlos Fazio Il dolore umano narrato dai robot Benedetto Vecchi Quale salto oltre l’apocalisse? Franco Berardi Bifo
Il modello epistemologico su cui si fonda questa governamentalità è quello dell’essere umano modulare, simile a quello proposto dalla biologia molecolare. Si riduce l’individuo non alle sue decisioni ma ai suoi micro-comportamenti. La biologia non si interessa alla vita stessa, ma alle particelle elementari che si associano tra loro. Nel caso della governamentalità algoritmica è la stessa cosa: si inserisce nella macchina una quantità enorme di micro-atti di diverso tipo – dove la persona passa le sue vacanze, quali percorsi segue, quali siti consulta su internet, chi chiama ecc. – in base ai quali è possibile stabilire profili virtuali, che si suppone possano rivelare gli individui pericolosi o devianti. La governamentalità, quindi, non si rivolge più alla persona (anche se il concetto di persona, così come era usato nell’antico modello di governamentalità, che va a votare in piena coscienza era altrettanto discutibile). Tutti i dati stoccati sono pre-individuali, perché le persone sono assimilate tra loro e poi assimilate ai loro profili. Non c’è un senso. È esattamente la stessa idea che si ritrova nella teoria dei meme di Richard Dawkins.
È quindi una visione della persona come macchina?
Sicuramente, gli adepti dell’intelligenza artificiale sono convinti che l’individuo sia una macchina, un ricettacolo di diversi micro-comportamenti, senza un senso complessivo. Non ci sono più né individui, né popolazioni, né comunità: esistono profili e avatar virtuali. Gli algoritmi sono fondati sull’individuazione di tendenze: ad esempio, la potenzialità violenta o meno di un individuo.
[…]
Nel romanzo di Philip K. Dick, The Penultimate Truth, del 1964, gli umani rifugiati in ‘formicai’ sotterranei ascoltano su schermi giganti il loro presidente Talbot Yancy, che è in realtà un robot, controllato da un’intelligenza artificiale, cui vengono date false informazioni perché costruisca un discorso rassicurante… In un certo senso Dick ha previsto la nostra realtà attuale.
Sì, in realtà è ispirato al romanzo dell’autore argentino Adolfo Bioy Casares del 1940, La invención de Morel … Comunque sia, si pone la questione dell’agire. L’istituzione non ha di fronte persone che la contestino, ma movimenti di micro-comportamenti che è necessario dominare. Non c’è alcun riconoscimento della conflittualità, poiché la macchina elimina l’altro. La minima critica è interpretata come un inceppamento che occorre riparare o come qualcosa da eliminare attraverso lo scontro e la repressione. In tutti i casi, se le reazioni alla politica del governo non sono buone, non è a causa di un disaccordo ideologico, ma semplicemente perché la comunicazione è stata condotta male, perché i meme utilizzati non sono stati quelli giusti. Utilizzo perciò il termine di post-democrazia, perché in questo contesto non si può votare che per persone che hanno lo stesso programma. D’altronde, anche Matteo Salvini, che in Italia ha attinto e diffuso idee e stereotipi di tipo fascista, segue in realtà gli orientamenti della Banca europea… In Francia, Emmanuel Macron dichiara di interessarsi alle responsabilità coloniali della Francia, ma per quel che riguarda i migranti… si può dire che fa piangendo quello che la signora Le Pen fa ridendo!
Il conflitto necessario alla democrazia non esiste quindi più?
La questione è di sapere come lottare contro la cancellazione dell’alterità. De Gaulle aveva degli avversari autentici: gli americani e i comunisti. In Argentina la giunta militare aveva un’ideologia da difendere contro i rivoluzionari. Alcuni militari addetti alla tortura adoravano, tra una seduta e l’altra, spiegare ai prigionieri – soprattutto agli intellettuali – le motivazioni e l’importanza della loro battaglia. Oggi l’alterità non è più presa in considerazione: si pretende che un terrorista si sia radicalizzato per ragioni unicamente psicologiche. Quando i giudici sono venuti a chiedermi un parere sulla questione della radicalizzazione, per progettare un cammino di deradicalizzazione, ho risposto che occorreva forse tener anche conto della variabile ideologica, e non considerare la cosa unicamente come un semplice sintomo. Un ‘gilet giallo’ contestatore è oggi trattato allo stesso modo: lo si delegittima riducendolo a un insieme di sintomi da trattare. La conclusione è che non si tollera nessun conflitto, si vuole unicamente lo scontro. L’altro è un Barbaro, e contro il Barbaro posso applicare la barbarie.
[…]
Che rapporto intercorre tra l’assenza di conflittualità nelle nostre società e l’intelligenza artificiale?
L’applicazione della ‘tolleranza zero’ nei confronti del conflitto è confortata dalla macchina. La macchina è vista come rigorosamente giusta, ma gli umani non sono mai rigorosamente giusti! Una macchina, per definizione, non può comprendere le logiche ‘sfumate’, non nette: può calcolare, ad esempio, che 4 è il doppio di 2, ma non può sapere, ad esempio, se un’abitazione è ‘grande’, perché questa è ‘grande’ in rapporto a cosa? C’è nel vivente una dimensione di soggettività che sfugge alla macchina. Allo stesso modo, a livello giuridico, la macchina non può tener conto di ciò che è ‘legittimo’ per una società, eppure tale legittimità è il cemento della società. Ciò che è legittimo non coincide con ciò che è legale e, se si riduce il legittimo al legale, la società diventa invivibile. Il vero problema della governamentalità algoritmica non è che un giorno la macchina possa funzionare male; il problema è piuttosto che essa determini degli orientamenti sociali invivibili, privi di faglie. Se un giudice si trova di fronte un uomo che ha rubato in un supermercato, oltre a informarsi su cosa è stato rubato, terrà in considerazione molti altri elementi, tra i quali, ad esempio, la povertà dell’uomo. Terrà conto della biografia e della soggettività di questa persona. Terrà conto del fatto che in ogni atto reprensibile rimangono comunque punti oscuri. La macchina non può tener conto di tutto ciò.
Ma allora, come agire?
Come si è visto, la governamentalità algoritmica fa in modo che, di fronte alla crisi delle società e delle culture, si sia delegata la razionalità umana alla macchina. In questo nuovo contesto, l’agire è compromesso. Siamo inoltre di fronte a una situazione catastrofica sul piano economico, demografico, ecologico… D’altronde, se pensiamo in termini di sistemi complessi, ci si rende conto che l’Uomo non è il solo attore nel mondo. Heisenberg diceva che, ovunque l’Uomo posi lo sguardo, non vede che l’Uomo… In realtà non è vero. L’agire degli umani deve tener conto di molti altri elementi attivi non-umani. Ogni agire umano, in politica come in medicina, deve tener conto che l’agire intenzionale non è che un vettore in un insieme non-calcolabile di altri vettori, la cui regolazione non è prevedibile. Ci sarà una regolazione autonoma della natura, se vogliamo, ma gli umani non saranno più presenti per fare da testimoni.
Non è facile conservare la speranza in questo tipo di mondo…
Sì, occorre davvero sapere come vivere in un mondo privo di promesse e anche dell’idea di provvidenza. L’idea di provvidenza suppone che vediamo il male, anche nella sua forma peggiore, e non lo comprendiamo, ma nonostante tutto pensiamo che ciò ci condurrà a un bene superiore che trionferà. La modernità ha prodotto la propria visione della provvidenza: è la teleologia, di cui lo storicismo è una delle incarnazioni. La teleologia presuppone una dialettica ascendente e una finalità che risolverà i problemi incontrati lungo il percorso. Oggi la novità è che non abbiamo né provvidenza, né teleologia, né promesse.
Ma in che modo la nostra epoca ci impedisce di pensare il nostro agire nel mondo?
Siamo piombati in un’epoca nuova, in cui il nostro modo di agire abituale non funziona più. La complessità è diventata dominante un po’ ovunque. Prendiamo come esempio il caso degli antibiotici. Questo tipo di medicina è stato creato all’interno di un modello lineare del vivente come luogo di battaglia e di conquista. L’idea era che esistono agenti patogeni e altri che fortificano il sistema immunitario, e quest’ultimo è come una fortezza che consente agli umani di battersi contro gli invasori. In certa misura, è vero. Ma, assunti in misura massiccia, a livello individuale e collettivo, gli antibiotici hanno effetti iatrogeni e deteriorano il sistema immunitario, cosa che non era stata prevista. Ciò illustra bene come non si possa pensare l’agire unicamente nei termini di causa ed effetto relativo alla causa. La scienza odierna non è più una scienza limitata all’esattezza. Deve potersi confrontare con un certo grado di incertezza.
Ciononostante, nella nostra vita quotidiana, tutto sembra ancora confermare l’attualità della razionalità antica e dell’esistenza di sistemi lineari. Se prendo la metropolitana, ho tutte le chance di arrivare nel luogo in cui ho previsto di recarmi. Ma, se certi livelli di realtà funzionano ancora in base a un modello lineare (è il livello della realtà sensibile, legato allo spazio geometrico e alla nostra corporeità), non è più così in altri casi. In effetti, a un altro livello (quello delle informazioni ‘non immediate’) siamo sommersi dai dati senza poter determinare a colpo sicuro una risultante. L’esperienza mostra che esiste una correlazione tra il fatto di fumare quotidianamente e lo sviluppo di un cancro, ma cosa riserva il futuro a un fumatore che per ora non ha il cancro? Contrarrà davvero tale malattia? In effetti, oggi, siamo di fronte alla tentazione e alla deriva di una gestione dei rischi disciplinari mediante le tecnologie digitali, il cui linguaggio pseudo-razionale è in realtà allo stesso livello di quello di una qualunque chiromante. La grande sfida attuale è comprendere questa complessità: a livello sanitario, ecologico, demografico, economico.
giovanni lombardi dice
la lunga spiegazione è algoritmica.
Non tiene presente altri fattori”genetici” perchè non lo può..prevedere.
Quanto avverà, nel caso che esamini il problema sotto lo sviluppo logico,essendo questo all’interno di quella complessità sviluppata secondo il il principio di cui stiamo,qui parlando.
Bisognerà invece ….QUALIFICARE IL PUNTO ORIGINARIO DEL NOSTRO COLLOQUIO :L’ESISTERE QUI,,,,,,sotto un’altro schema che non possiamo modificare se consideriamo presente,come vero che è.
Il princio originario, in cui noi manifestiamo il nostro agire, è in rapporto alla “potenza” che abbiamo….
….questa potenzialità è determinata dal quadro in cui noi la realizziamo.
….ma il QUADRO……
quadro,originario ,non può essere posto da noi ,pensanti,se non nei limiti in cui riusciamo a comprendere quali sono i termini del campo in cui lavoriamo.
…aggiungo semplicemente, per chiarire la confusione del linguaggio che ho usato ,ora,sopra e in precedenza, che i fattori di produzione sono delegati al maggior quadro in cui lavoriamo,.
il quadro, nella sua completezza, riguarda tutti noi nel momento in cui lo percepiamo .
La percezione è istantanea,data dai sensi di cui disponiamo,e la sviluppiamo secondo la sensorialità (la potenza dei sensi che nel procedere dell’antropologia del reale,ci determina.
Heisenberg ci da una chiave logica per comprendere la “somma” del grande ingresso che il cervello può indicarci e non più.
Possiamo entrare nel grandecampo,casa della vera filosofia(diamo valore al linguaggio ,alle parole ,nel limite in cui apprendiamo il reale-il campo che cerchiamo di coltivare) …e in quest’opera che è sempre in divienendo,poniamo i termini che sono dati dal tempo in cui noi si-amo.
Trallisterando cerchiamo di erodere ,allargare i campi in cui questo commento cerca di spiegare come i limiti del sapere vengono dati(i data base del web ne sono la provocazione) perchè sia comunicato all’intero di quei fattori di produzione che noi siamo.
noi siamo noi .
Un errore se
autoproduttori del tutto che qui cerchiamo di comprendere perchè in questo siamo compresi logicamente.
la soluzione di questo commento è …accontentiamoci della sapienza che apprendiamo giorno per giorno e nei limiti esatti che questi corrispondono al nostro sapere.
questo qui, non è algoritmico ma ,contempla tutto quello che può inserire in questo commento.
Qui ha quindi la sua dimostrazione in cui è impossibile delegare la soluzione ….perchè questa è quella che ci lega slegandoci dall’orgoglio della singolarità in cui è il tutto ,naturalmente se rapportato al noi che qui lanciamo corde per salvarci all’altra sponda di noi.
….questa è dall’altra parte del fiume in cui siamo e dobbiamo allora costruire ponti per passare il fiume che,torrenzialmente ci isola.
in questa verità vale il silenzio che sopravviene…. e noi stessi saremo quanto è l’orizzonte immenso che ,in prospettiva, ci lega e ci salva ,nelle opere che facciamo.
…prima è attraversare il fiume e percorrerlo sul ponte che abbiamo costruito…..,qui è l’amore che regna e ci unisce in questo mondo in cui possiamo ancora lavorareper questo.
Per quanto non so(ecco per me il valore del non so,rispettoso del senso vero che qui cerco di esprimere nel momento in cui scrivo)MA SO CHE POSSO QUI COMUNICARLO.
L’INFORMAZIONE CHE Dò IN QUESTO COMMENTO BATTAGLIA CON L’ALGORITMO.
Questo è il problema della mia coscienza,lo stesso che hanno tutti in vario modo,e che vive il dramma del racconto che ognuno deve fare ,ed ha momenti secondo il principio d’amore e d’armonia che ci sovrasta e non dobbiamo spiegare perchè l’opera è viverlo insieme vivendo.
hans drager dice
Purtroppo Miguel Benasayag si è dimenticato di menzionare il ruolo del potere medico e della medicina in ciò che egli chiama “Tirannia dell’algoritmo”. Forse perché è medico egli stesso. Comunque, una cosa è certa, e da almeno un anno circa diventa sempre più palpabile per tutto il mondo, perfino per i più creduli, e cioé che la classe medica sta per raggiungere il suo obiettivo che non è altro che ancorare, con illimitata capacità espansiva, nella popolazione e nella politica il millenario stato sanitario senza pericoli di crisi e sconvolgimenti. Nonostante i tribunali di Norimberga e di Russell.
L’articolo di Miguel Benasayag, quindi, necessità alcuni importanti chiarimenti:
“I medici che da sempre hanno imposto la loro norma, e se stessi come norma, oggidì hanno convertito questa norma in un meccanismo automatico che, nel frattempo, essi mettono in azione come automa, come computer. E gli altri ve ne cooperano automaticamente nel mettere in azione questa norma nei loro programmi di computer. In questo modo la norma medica è, da molto tempo, cresciuta fin sopra i cappelli di tutti. Dal 1977 noi la chiamiamo Iatrachia, questa norma. Si tratta di una prassi senza autore, senza responsabili. Eccola, dunque, la nuova Borghesia, la Normoisia. ‘E questa Normoisia che doveva essere attaccata, che deve essere attaccata e che dovrà essere attaccata. La vecchia Borghesia è passée.” (Fonte, Il Manifesto Communista per il Terzo Millenio, SPK/PF(H), 1997)
Eppure, nel “Petit manifeste par des temps de pandémie” del 3 Aprile 2020 del Collettif Malgré Tout, di cui Miguel Benasayag è fondatore, egli scrive, tra le altre cose, “ l’obiettivo perseguito dalle politiche e dalle pratiche specifiche del neoliberismo è quello di ‘déterritorialiser’ questi corpi, di virtualizzarli, di renderli una materia prima manipolabile, un “capitale umano” da utilizzare a volontà nei circuiti di mercato. … In questa estrema astrazione, i corpi dei clandestini, i corpi dei disoccupati, i corpi dei “non addattati”, i corpi annegati nel Mediterraneo, o quelli dei centri di detenzione, insomma i corpi dei ‘surnuméraires’ diventano semplici figure, di valore zero, senza alcuna corporalità e quindi, fondamentalmente, senza umanità.”
Confronti a tale proposito il testo “Numeri e resti” del Fronte di Pazienti, publicato in Italia per la prima volta sulla rivista CONTROinformazione no. 18 nel Giugno 1980 sul sito internet del COLLETTIVO SOCIALISTA DI PAZIENTI – FRONTE DI PAZIENTI – SPK/PF(H).
La questione è Che fare?
Claudio Mutini, fondatore della rivista di cultura INVARIANTI e Giorgio Patrizi scrivevano nel 1996 nel loro libro “Il tempo imperfetto” tra le altre cose:
“L’attacco più radicale contro le radici logistiche dell’era odierna dei computer proviene da Huber dello PF/SPK(H), cioè: sotto il significante MALATTIA, essendo nella sua forma finora una maledizione, per i computer (sotto l’egida della classe dei medici) nessun paziente è più considerato essere “santo”, e tutti senza eccezione verranno selezionati per essere eliminati, cioè tutti i procreati, coloro procreati artificialmente in ogni caso e coloro procreati “per vie naturali” più che mai.
• Il militarismo privato nella guerra civile universale deve essere sciolto e superato nello stesso modo in cui l’SPK era venuto a capo della rivolta diffusa dei pazienti con cui essi combattevano l’uno contro l’altro; l’SPK è appunto per questo il paradigma che dimostra come bisogna fare.
• PF/SPK(H): Tutto il pensare risulta dai meccanismi dello scambio. Chi porta con sé della moneta è una marionetta soggetta alle determinazioni estranee dei relativi modelli di valore in tutti i presupposti del pensiero nella sua testa e nel suo corpo, sentire e volere.
• La salute, il santo santissimo del santo, il più alto e finora tanto naturale quanto immobile valore [unverrueckbarer Wert], portatore di speranze e d’illusioni per i piccoli e i grandi in tutte le società finora, è scoppiato unicamente e per la prima volta a causa di PF/SPK(H) come una bolla di sapone.”