Vai al contenuto
Melius Club

Che cos'è il lungotermismo?


Messaggi raccomandati

Inviato
10 minuti fa, senek65 ha scritto:

Ma la cosa bella è non rendersi conto di quanto si offende

ancor più bello è non rendersi conto di non saper capire il linguaggio scritto ed andare sempre a Toma anziché a Roma…

  • Haha 2
Inviato

 Lungoterminismo opposto al tuttosubitismo. Da sempre il genere umano palleggia tra queste mura concettuali... se il tutto-e-subito è "viver come bruti" e il lungoterminsmo è brutto e cattivo, suggerisco il medioterminismo: Ognuno si occcupi di quel che può dare risultati fruibili nel corso della sua vita. :classic_rolleyes:

  • Melius 2
Inviato
6 minuti fa, Martin ha scritto:

Lungoterminismo opposto al tuttosubitismo

I vati muskiani e affini, predicano il lungoterminismo per avere il tuttosubitismo, sul medioterminismo siamo tutti morti. Totò truffa era più divertente.

Inviato
1 ora fa, UpTo11 ha scritto:

colonizzare il superammasso della Vergine

Sara’ il monte di Venere, l’abbiamo colonizzato tutti piu’ o meno a suo tempo

Inviato

Intanto per la precisione il termine giusto è lungotermismo, non lungoterminismo.

Comunque a me sembra, per dirla terra-terra, la genialata di alcuni miliardari con ambizioni di dominio universale, i quali, mentre coltivano qui-e-ora i loro interessi materiali e politici, cercano di convincere le masse popolari meno acculturate a spostare nell'aldilà le proprie speranze.

Una specie di Paradiso 2.0 adeguato all'era delle plutocrazie tecnologiche.

  • Melius 1
Inviato

 

L’utopia dei miliardari. Analisi e critica del lungotermismo – Irene Doda

 

Mockup-Lutopia-dei-miliardari.jpg

  • Thanks 2
Inviato

https://www.wired.it/article/lungotermismo-silicon-valley-libro/

 

 

Il nuovo credo della Silicon Valley è una religione da incubo

 

Il lungotermismo è una delle filosofie più in voga tra i miliardari del tech, ma ha tratti molto inquietanti e quasi da culto: un saggio ne analizza caratteristiche e criticità. E ci spiega perché non dobbiamo sottovalutarlo

Il lungotermismo ricorda un culto religioso in questo caso al centro c'è una tecnologia lontana

 

Tra crisi climatica, guerre e pandemie, la sensazione è che gli abitanti del pianeta Terra – umani e non – potrebbero non avere davanti a loro un brillante futuro proiettato sul lungo termine. Nonostante questo, o forse proprio per questo, negli ultimi dieci anni circa si è sviluppata una filosofia che pone l’accento esclusivamente sulle prospettive di lungo, lunghissimo termine. Una filosofia che da Oxford si è rapidamente diffusa tra le élite tecnologiche e finanziarie della Silicon Valley: il lungotermismo, per l’appunto.

 

Nato come costola del ricchissimo effective altruism (una forma di filantropia utilitarista, che predica la necessità di svolgere lavori estremamente remunerativi per donare cifre immense in beneficenza), il lungotermismo si propone di garantire all’essere umano un futuro a lunghissimo termine (anche milioni di anni), al fine di prosperare e proliferare in tutta la galassia.

 

Questa filosofia, che come vedremo assume spesso i tratti del culto, è al centro del primo saggio della giornalista Irene Doda (che lavora anche per Wired): L’utopia dei miliardari: analisi e critica del lungotermismo (appena uscito per Edizioni Tlon). In meno di cento pagine, questo pamphlet condensa genesi, evoluzione, ripercussioni politiche e sociali e soprattutto gli aspetti più problematici e inquietanti del lungotermismo, anche con l’obiettivo di sollevare un dibattito pubblico che, fino a oggi, è spesso mancato.

 

Per capire come il lungotermismo giunga alle pericolose (e a volte deliranti) conclusioni che tra poco vedremo, bisogna prima fare un passo indietro e vedere in che modo, partendo da premesse condivisibili, questa filosofia riesca a spingersi oltre il limite del razionale e dell’accettabile.

 

Soluzioni pratiche a problemi apocalittici

 

Molti di noi potrebbero per esempio ritenere ragionevole il sacrificio di due persone oggi al fine di salvarne dieci, cento o mille domani. Un discorso simile, spostando l’accento temporale dai giorni alle generazioni, vale per la giustizia intergenerazionale: chi negherebbe che le passate generazioni avrebbero dovuto sacrificare una parte di benessere materiale, e limitare lo sfruttamento del pianeta, al fine di salvaguardarlo per le prossime generazioni (e per gli abitanti non umani della Terra)?

 

Che cosa succede, però, se portiamo queste condivisibili conclusioni alle loro estreme conseguenze logiche? Un esempio di ciò che può avvenire viene citato proprio da Irene Doda in L’utopia dei miliardari: “Immaginiamo una situazione ipotetica in cui un soggetto, vivo nel tempo presente, abbia i mezzi, la tecnologia e la volontà di salvare dalla povertà un miliardo di persone. Allo stesso tempo ha anche un’altra opzione: compiere un’azione che benefici una frazione infinitesimale degli esseri umani che potrebbero esistere qualora colonizzassimo il Superammasso della Vergine, il cluster galattico che contiene la Via Lattea. Quale sarebbe la scelta più etica per i lungotermisti?”.

 

A questo punto, è necessario fare due calcoli, per i quali Irene Doda si rifà al filosofo “lungotermista pentito” Émile P. Torres: “Basta fare due conti: lo 0,000000001 per cento di 10^23 persone è pari a dieci miliardi di persone. Ciò significa che, se si vuole fare del bene, bisogna concentrarsi su queste persone del futuro piuttosto che aiutare chi oggi è in estrema povertà”.

È esclusivamente una questione numerica: partendo dal presupposto lungotermista che le vite del futuro hanno lo stesso valore di quelle odierne, è meglio salvare dieci miliardi di persone lontanissime nel tempo che salvarne un miliardo di esistenti.

 

Non è difficile intuire quanto sia assurdo dare la priorità a decine di miliardi di ipotetiche vite future rispetto a un qualunque numero di vite esistenti adesso. A tenere in piedi il ragionamento lungotermista è esclusivamente la fredda logica matematica: un aspetto che dimostra inoltre come logica e razionalità, a un certo punto, si scollino e non procedano più di pari passo.

 

Peggio ancora: questa attenzione rivolta esclusivamente al futuro permette ai lungotermisti di derubricare a questioni secondarie tutte le faccende del presente, comprese crisi climatica, diseguaglianze crescenti, fame nel mondo, guerre e pandemie. È forse proprio per questa ragione che il lungotermismo sta avendo grande successo tra i tecnomiliardari della Silicon Valley: “Si tratta in realtà di un eccellente specchietto per le allodole - scrive sempre Irene Doda -. Permette infatti a coloro che già detengono le redini del potere di non metterne in discussione i fondamenti, anzi di incrementare la loro influenza con la scusa del ‘bene dell’umanità futura’”.

 

Il lungotermismo diventa insomma lo strumento perfetto per giustificare lo status quo e non impegnarsi a cambiare il presente, sminuendo l’importanza di tutto ciò che non rappresenta un rischio esistenziale. Se il termine “rischio esistenziale” vi suona familiare non è solo perché viene spesso impiegato dal fondatore di OpenAI Sam Altman o da Elon Musk (entrambi vicini al lungotermismo), ma anche perché è una delle basi teoriche del filosofo Nick Bostrom (noto per la teoria della simulazione e dei potenziali pericoli connessi all’avvento della superintelligenza artificiale), punto di riferimento indiscusso del lungotermismo.

 

Come abbiamo visto, l’attenzione rivolta esclusivamente ai rischi esistenziali che – per quanto remoti nel tempo e improbabili – potrebbero minacciare la sopravvivenza della specie umana fa sì che i lungotermisti reputino più importante la colonizzazione dell’universo rispetto alla crisi climatica, o che dirottino la marea di risorse economiche a loro disposizione (46 miliardi di dollari, raccolti tramite i loro think tank ed enti benefici) dalla lotta alla fame del mondo al contrasto di un’ipotetica minacciosa superintelligenza artificiale.

 

D’altra parte, come scrive Irene Doda, “se prendiamo la cornice del futuro lontanissimo, quasi nulla di quello che succede nel presente conta. Che importerebbe se, nello sforzo di colonizzare lo Spazio, si scatenasse una guerra letale per miliardi di persone?”. È in questa visione apocalittica, messianica, che si perde di vista un elemento di fondamentale importanza: se vogliamo cambiare il futuro, “dobbiamo farlo trasformando in primis il presente: cambiando le carte in tavola a partire dal nostro stesso sguardo. Possiamo essere tentati di fronte alle sfide attuali, non solo politiche ma anche intime e personali, di aggrapparci a ideologie salvifiche o parareligiose. Ma queste non sono che una facciata di comodo perché nulla cambi davvero”.

 

C'è da avere paura?

Dobbiamo davvero preoccuparci dell’impatto di una scuola di pensiero dai tratti evidentemente deliranti? La risposta è positiva, non solo per la quantità enorme di soldi in dotazione alle realtà collegate al lungotermismo, e non solo per il potere economico e mediatico di molti adepti (ai già citati Altman e Musk possiamo aggiungere il creatore di Ethereum Vitalik Buterin, il fondatore di Anthropic Dario Amodei e molti altri), ma anche perché queste teorie stanno da qualche tempo facendosi largo all’interno delle più importanti istituzioni del mondo.

 

“Toby Ord (uno dei principali teorici, assieme a William MacAskill) è stato consigliere dell’Organizzazione Mondiale della Sanità, della Banca Mondiale, del World Economic Forum, del Consiglio per l’Intelligence degli Stati Uniti e del Governo britannico”, scrive Irene Doda. “Ha recentemente contribuito a scrivere un documento del Segretario generale delle Nazioni Unite, intitolato ‘La nostra comune agenda’, che menziona direttamente il lungotermismo, oltre a utilizzare termini come ‘rischi esistenziali’”.

 

Le conseguenze sul mondo reale che questa teoria può concretamente avere non vanno quindi sottovalutate. Come non va confusa l’essenza di questa teoria, che dietro una patina tecnologica, razionale e scientifica si dimostra invece estremamente antropocentrica (l’essere umano è addirittura l’unica che cosa che conta in tutto l’universo). I presupposti da cui muove il lungotermismo non sono soltanto conservatori e antiquati, ma sono gli stessi che ci hanno condotto dove ci troviamo oggi.

 

“Gli esseri umani sono una specie transitoria in un enorme mistero cosmico - scrive Doda nelle ultime pagine del saggio -. Proprio per questo non vale la pena fare scorrere fiumi di sangue, uccidersi a vicenda per il potere. Proprio perché non siamo che una minuscola parte di un gioco che fatichiamo a comprendere, persino a concepire, dobbiamo lavorare per un raggiungimento di condizioni migliori sul pianeta. È un punto di vista differente rispetto a quello lungotermista, che invece ha la pretesa non solo di conoscere ma anche di dominare e colonizzare parte dell’Universo conosciuto. La prospettiva dei lungotermisti rispetto al cosmo può definirsi imperialista”.

 

  • Melius 1
Inviato

L'aspetto paradossale è che gli operai statunitensi hanno votato chi intenderebbe realizzare una c.d. "filosofia" seguita dai miliardari della Silicon Valley.

Inoltre, pensare ad una futura colonizzazione della galassia è un delirio di nerd che hanno visto troppi film di fantascienza.

Inviato

io ero rimasto che nel lungo termine saremo tutti morti. e vabbè.

  • Haha 2
Inviato
8 minuti fa, Savgal ha scritto:

L'aspetto paradossale è che gli operai statunitensi hanno votato chi intenderebbe realizzare una c.d. "filosofia" seguita dai miliardari della Silicon Valley.

ma secondo te hanno votato Trump per il lungotermismo?

…dai

  • Melius 1
Inviato

A leggere alcuni interventi pareva che la Harris l'avessero sostenuta i miliardari californiani.

Inviato

infatti l' hanno sostenuta i miliardari, anche non strettamente californiani e apparentemente

in modo meno diretto di quelli che hanno sostenuto the donald.

però per vari motivi questo giro gli è andata storta

Inviato
1 ora fa, penteante ha scritto:

Intanto per la precisione il termine giusto è lungotermismo, non lungoterminismo.

e ci hai ragione, gli è che da buon copia incollatore di wikipedia mi sono fatto abbagliare: "Il lungoterminismo[1] (dall'inglese longtermism, da long term 'lungo termine'; talvolta italianizzato approssimativamente in lungotermismo)"

Inviato

@Savgal Basta prendere l’elenco delle contribuzioni alla campagna elettorale - tutta roba pubblica in USA - e si sa chi ha dato quanto ed a chi.

I miliardari come tutti si schierano con chi pare a loro, un po’ di qui ed un po’ di là.

Trump ha vinto perché ha convinto la maggioranza con i temi economici e molti, qualcuno lo conosco anche io di prima mano, sono passati sopra alle chiare deficienze del personaggio per questo.

Di Kamala i più pensano che sia una brava donna (anche io tra l’altro) ma che non le darebbero da amministrare il garage perché ci rimetterebbero.

In USA il discorso economico conta sempre il doppio di qualsiasi altro argomento. 

A mio avviso ed impressione. 

  • Melius 1
Inviato

@31canzoni io trovo più calzante “lungoterminismo” … in italiano almeno.

poi chiamalo antonio o chiamalo ciccio quello è 

  • Melius 1
Inviato

Il filosofo inglese George E. Moore era dell’opinione che fosse impossibile avere una conoscenza, anche probabilistica, del futuro. Di conseguenza, quando ci si trova a dover prendere una decisione, per il filosofo è conveniente affidarsi all’esperienza passata (principio frequentista).

Qui siamo in presenza di una forma di delirio per cui si immagina un futuro che non ha alcuna base nel presente, ossia la possibilità di raggiungere stelle ad anni luce dal sole. Hanno visto troppi episodi di Stra Treck.

https://it.wikipedia.org/wiki/Propulsione_a_curvatura

Inviato
2 ore fa, mozarteum ha scritto:

Sara’ il monte di Venere, l’abbiamo colonizzato tutti piu’ o meno a suo tempo

Infatti una volta colonizzato l'ammasso della vergine cambia nome per forza di cose.

  • Haha 1

  • Notizie

  • Badge Recenti

    • Badge del Vinile Arancio
      music.bw805
      music.bw805 ha ottenuto un badge
      Badge del Vinile Arancio
    • Contenuti Utili
      Eiji
      Eiji ha ottenuto un badge
      Contenuti Utili
    • Reputazione
      Ultima Legione @
      Ultima Legione @ ha ottenuto un badge
      Reputazione
    • Contenuti Utili
      Capotasto
      Capotasto ha ottenuto un badge
      Contenuti Utili
    • Contenuti Utili
      fabio76
      fabio76 ha ottenuto un badge
      Contenuti Utili
×
×
  • Crea Nuovo...