briandinazareth Inviato 25 Marzo Inviato 25 Marzo 7 minuti fa, extermination ha scritto: Non avevo dubbi sul circuito Hotel-turisti ma non riguarda solo i turisti e gli hotel in cina non sono per turisti o locali... non è la corea del nord :) l'idea generale della cina è veramente e radicalmente diversa da come è. lo capisco perché per me è stato un vero shock praticamente tutti usano la vpn, ad esempio per netflix che in teoria non è disponibile in cina ma che ormai produce un gran numero di contenuti in quella lingua e non solo per gli emgrati. in iran è lo stesso... per fermare queste cose devi praticamente spegnere internet, e se vuoi una rivoluzione popolare è il modo migliore.
extermination Inviato 25 Marzo Inviato 25 Marzo 3 minuti fa, briandinazareth ha scritto: praticamente tutti usano la vpn, Ok tutti usano la vpn. Nessun limite, nessuna censura, nessun controllo. Tutto è accessibile a tutti. Grazie per l’info.
Dufay Inviato 25 Marzo Inviato 25 Marzo 4 ore fa, extermination ha scritto: È proprio il caso di dirlo: fortunati i cinesi che hanno un saggio presidente che guida loro da buon padre di famiglia!!! In questo caso chissà... Meglio un padre di famiglia coscienzioso che lassista ubriacone. Comunque le regole sono indispensabili e bisogna farle più prima di subito
briandinazareth Inviato 25 Marzo Inviato 25 Marzo 7 minuti fa, extermination ha scritto: Ok tutti usano la vpn. Nessun limite, nessuna censura, nessun controllo. Tutto è accessibile a tutti. Grazie per l’info. non è un problema di volontà, ma solo che tecnicamente non è fattibile senza piantare tutto il sistema.
Dufay Inviato 25 Marzo Inviato 25 Marzo 1 minuto fa, briandinazareth ha scritto: non è un problema di volontà, ma solo che tecnicamente non è fattibile senza piantare tutto il sistema. E quindi? Dritti Verso il baratro ma può darsi che sia generato da ai?
Savgal Inviato 25 Marzo Inviato 25 Marzo @wow E' da oltre 10 anni che non insegno. Vi è un fatto che mi allarma e con cui mi confronto quotidianamente, le situazioni di disagio psicologico. In alcuni giorni mi pare di avere a scuola una sezione psichiatrica.
Savgal Inviato 25 Marzo Inviato 25 Marzo (Oggi sul Corriere, ciò che scrive Riccardo Luna è molto simile a quanto ha scritto Giuseppe Riva nel saggio che ho consigliato) l business della rabbia: da TikTok a Facebook, quando l'algoritmo gioca con il nostro cervello. Cosa è andato storto? di Riccardo Luna Engagement e dopamina: le bugie non le ha inventate Mark Zuckerberg, il problema è che le «verità alternative» vengono automaticamente spinte, favorite e rilanciate dagli algoritmi dei social. Perché aumentano la «partecipazione» degli utenti più di una cosa vera, noiosamente vera «Stiamo costruendo davvero il mondo che vogliamo?». Il 16 febbraio 2017 Mark Zuckerberg si fece pubblicamente questa domanda postando sul suo profilo social un lungo documento (quasi seimila parole) intitolato «Building Global Community», costruire una comunità globale. Non era il solito post di marketing, era più ambizioso, era come il messaggio a rete unificata del «re del mondo» nel momento del suo massimo splendore e subito prima che una formidabile tempesta lo investisse, facendolo vacillare. Era «il Manifesto di Mark» come lo ribattezzò con un certo sarcasmo la più importante giornalista della Silicon Valley, Kara Swisher, una che Zuckerberg lo aveva seguito fin dagli esordi e che non si era mai fidata davvero delle sue buone intenzioni (diffidenza rivendicata recentemente quando lo definirà: «Uno degli uomini più pericolosamente imprudenti della storia della tecnologia»). In quel momento Zuckerberg era una sorta di semidio e sembrava onnipotente. Esattamente un anno prima, nel febbraio 2016, Facebook aveva introdotto le emojis (le faccine per esprimere rabbia, tristezza, stupore, divertimento e innamoramento) che si aggiungevano al tasto «mi piace». Anche grazie a quei nuovi strumenti per catturare dati personali e raffinare il nostro profilo psicologico, il fatturato quell’anno aveva sfiorato i 30 miliardi di dollari con oltre 10 miliardi di profitti. Tecnicamente le aziende di questo tipo, con questa marginalità straripante, vengono definite cash machine, macchine per creare soldi. Gli utenti erano quasi due miliardi, vuol dire che un abitante del pianeta su quattro aveva un profilo attivo; senza contare che nel 2012 Zuckerberg si era comprato quello che appariva come l’unico vero rivale, Instagram; e, due anni dopo, anche il più potente servizio di messaggistica, Whatsapp. Ai tempi girava una cartina del mondo dove in blu erano indicati i paesi in cui Facebook era il social network più usato: a parte la Russia, la Cina e un paio di altri Stati minori, il mondo era tutto blu. Blu Facebook. Per uno cresciuto con il mito dell’impero romano e della «pax augustea» di duemila anni fa, quella mappa valeva come una corona di alloro. Ave Zuck! Bill Gates ancora lo adorava e non era una credenziale da poco: anche se aveva lasciato da un pezzo la guida di Microsoft, era sempre l’uomo più ricco del mondo e, dopo la morte di Steve Jobs, l’esponente più autorevole di quella che chiamiamo, per semplicità, la Silicon Valley. Di Elon Musk non c’era neanche l’ombra. Zuckerberg invece era appena diventato il sesto in quella classifica di ricconi ed era già il più giovane miliardario di sempre. In un'intervista televisiva fatta qualche settimana prima del «Manifesto», Gates gli aveva ribadito la sua stima incondizionata: «La capacità di Mark di immaginare come le cose si svilupperanno e costruire un team per realizzare la sua visione è abbastanza fenomenale». E l’amministratore delegato della Disney, Robert Iger, parlando con un giornalista di Fortune, non aveva trattenuto una ammirazione che vista oggi appare davvero superficiale ma che riflette perfettamente lo spirito del tempo. «La sua determinazione per rendere il mondo più aperto è davvero una missione eroica». Eroica, disse proprio così. No, Zuckerberg quello che faceva non lo faceva per soldi, lo faceva perché voleva costruire un mondo migliore: era un eroe. Nulla sembrava poter fermare la sua corsa. Anche in senso letterale. Nel 2016 aveva lanciato una nuova challenge. Era una abitudine che aveva preso dal 2009: annunciare al mondo la sua «sfida dell’anno». Una volta per esempio la sfida era stata imparare il mandarino, la lingua parlata dal settanta per cento dei cinesi. Lo aveva fatto davvero. Nel 2016, oltre «a costruire una intelligenza artificiale per gestire la casa che funzioni come quella di Iron Man» (di cui si sono perse le tracce), la sfida era «correre 365 miglia incontrando più persone possibile in giro per il mondo». Anche questo lo aveva fatto, naturalmente, e lo aveva fatto a modo suo. All’inizio dell’estate aveva postato una foto mentre correva a piazza Tienanmen, a Pechino, ignorando deliberatamente qualunque riferimento al movimento per la democrazia che lì si era radunato per settimane, nel 1989, prima di venire brutalmente soppresso («t's great to be back in Beijing! I kicked off my visit with a run through Tiananmen Square, past the Forbidden City and over to the Temple of Heaven»). E il 29 agosto aveva corso attorno al Colosseo. A pochi chilometri di distanza, ad Amatrice, c’era appena stato un terribile terremoto e Zuckerberg, in un incontro con gli studenti universitari della LUISS con le domande approvate prima dal suo ufficio stampa, aveva promesso pubblicamente che avrebbe aiutato le popolazioni colpite dal sisma (un eroe!, appunto). Poi era stato ricevuto dal presidente del Consiglio Matteo Renzi, suo grande fan, che gli aveva donato una antica copia del «De Amicitia» di Cicerone; e addirittura da papa Francesco con il quale - recita il comunicato ufficiale -, aveva parlato di come la tecnologia avrebbe potuto «alleviare la povertà». Le Nazioni Unite di Facebook sembravano ad un passo. Oggi si fa fatica a ricordarlo così, ma Zuckerberg era davvero una star globale, amata e ammirata con rare eccezioni. Eppure quando sui social apparve il suo «Manifesto», nel febbraio 2017, qualcosa stava per cambiare radicalmente. E non solo per lui ma per tutti noi. Intanto alla Casa Bianca era appena arrivato Donald Trump: era il primo Trump, rispetto a quello odierno era nulla, ma allora per molti fu uno choc. In quei giorni ancora non si sapeva molto del problema delle notizie false in rete (chiamate «fake news» anche in Italia, ormai), della propaganda russa e di Cambridge Analytica, la società che utilizzando surrettiziamente i dati di Facebook durante la campagna elettorale aveva creato i profili psicologici di duecento milioni di elettori americani per convincerli, con messaggi personalizzati, a votare Trump (o a non votare Hillary Clinton, in molti casi). Lo scandalo scoppierà nel 2018. Ma che qualcosa nei social network fosse diverso da prima iniziava ad essere evidente ai più avveduti. E qualcuno iniziava a pentirsi dell’entusiasmo di un tempo. Fra questi, Barack Obama. Abbiamo già ricordato che il presidente uscente era stato un grande utilizzatore di Facebook per la sua attività politica ed era anch’egli uno storico ammiratore di Zuckerberg. Il momento di massima vicinanza, o almeno il più evidente, fra i due era stato un evento a Menlo Park, nel 2011. Una «town hall», una sorta di assemblea pubblica con tutti i dipendenti di Facebook. Il 20 aprile, era un mercoledì, Barack e Mark avevano dialogato sul palco come vecchi amici davanti al caminetto, anche se erano davanti a tremila persone adoranti. All’inizio Zuckerberg aveva fatto mostra di essere emozionato e aveva esordito così: «Scusate, sono un po’ nervoso oggi, abbiamo qui il presidente degli Stati Uniti». Al che Obama aveva proposto di levarsi la giacca per rendere la cosa meno formale e la sala aveva applaudito divertita. Il momento più significativo era stato quando Obama a un certo punto aveva detto (scandendo le parole come solo lui sa fare): «Quello che Facebook ci consente di fare è incredibile, non è semplicemente una comunicazione in una direzione; garantisce che non ci sono solo io che parlo a te, ma anche che tu possa rispondermi, e questo si chiama conversazione, questo si chiama dialogo». A rileggerlo oggi, quanta ingenuità. I due avrebbero continuato a frequentarsi pubblicamente e in privato; e ad elogiarsi reciprocamente, fino al 17 novembre 2016 quando si incontrarono nel luogo più improbabile, a Lima, in Perù, al summit della Cooperazione economica asiatico-pacifica (APEC). Il secondo mandato di Obama come presidente era appena finito: le elezioni si erano svolte pochi giorni prima e lui era in carica solo per garantire una transizione senza intoppi fino al giuramento del suo successore, Donald Trump appunto. In Perù Obama e Zuckerberg si parlarono lontano dai riflettori e di quel meeting, lì per lì, nessuno seppe nulla. Ne diede notizia il Washington Post molti mesi dopo, quando il tema delle fake news sui social era esploso arrivando in cima all’agenda globale e probabilmente qualcuno dello staff dell’ex presidente ne rivelò il contenuto per marcare le distanze, per poter dire «noi lo avevamo capito che c’era qualcosa che non andava e glielo avevamo anche detto al diretto interessato». Secondo la versione del Washington Post quel giorno Obama «suonò la sveglia» al suo giovane amico. Subito dopo il voto americano infatti Zuckerberg aveva liquidato come «una follia» (disse così: «Crazy») l’ipotesi che il dilagare di contenuti falsi sui social avesse in qualche modo determinato l’esito elettorale. Allora Obama a Lima se lo prese da parte e gli disse che il problema invece c’era e andava risolto perché avrebbe potuto fare «enormi danni alla democrazia». Di quel colloquio riservato, e così scottante, nel «Manifesto di Mark» non c’è traccia se non per un passaggio in cui si dice che «il nostro lavoro a Facebook è aiutare le persone ad avere il massimo impatto positivo mentre noi proviamo a mitigare le aree in cui la tecnologia e i social media possono contribuire a dividere le persone e isolarle». Il problema è che quella tecnologia a cui si faceva un vago cenno era diventata il cuore del social network più importante del mondo: Facebook era uno strumento implacabile per dividere le persone ed isolarle. C’era poco da mitigare. Era così che funzionava per macinare profitti. In quell’anno accadde un altro fatto molto rilevante che contribuì ad accelerare il «cambio di destinazione d’uso» delle piattaforme digitali. A settembre dalla Cina era arrivato un nuovo social network: il suo nome era Douyin, ma dopo la fusione con la app Musical.ly, venne ribattezzato simpaticamente TikTok. All’inizio fu sottovalutato da tutti, forse perché Musical.ly era una app di video musicali più o meno scemi che gli utenti, soprattutto adolescenti, potevano registrare con lo smartphone ballando e sincronizzando le labbra con le canzoni. In realtà dietro i balletti c’era un pensiero forte. Una certa idea di mondo in cui gli algoritmi decidono per noi; non decidono soltanto quale canzone ascolteremo, come accade con Spotify; o quale strada prenderemo per non trovare traffico, come accade con Waze. Decidono cosa guarderemo, come ci informeremo e, alla fine, in cosa crederemo. Determinano la nostra «percezione della realtà» (sempre papa Francesco). Dietro TikTok c’era soprattutto Byte Dance, una startup fondata nel 2012 dal ventinovenne Zhang Yiming con l’obiettivo di sviluppare delle piattaforme digitali totalmente gestite dall’intelligenza artificiale. Non era una novità assoluta. Nello stesso periodo anche a Menlo Park avevano introdotto il machine learning al posto dell’ormai rudimentale algoritmo di Edgerank: questo consentiva alle macchine di tenere sotto controllo circa diecimila parametri contemporaneamente per decidere quale contenuto mostrare ad ogni utente e adattarsi in tempo reale ai nostri cambiamenti e alle nostre passioni. TikTok questo approccio lo portò alle estreme conseguenze: infatti in Facebook (e Instagram) gli utenti avevano - e hanno ancora - un piccolo margine di libertà che deriva dalle persone con cui siamo in contatto, gli amici o gli utenti seguiti, a cui viene attribuito un peso nel flusso di contenuti mostrati. Ma Zhang Yiming era convinto che questa storia dell'amicizia digitale fosse sopravvalutata e, alla fine, una perdita di tempo: gli amici a volte possono essere noiosi mentre una intelligenza artificiale ben addestrata è in grado di proporre continuamente video - nota: i video comportano una minore «fatica cognitiva» rispetto ai testi - che tengono gli utenti attaccati alla piattaforma a prescindere da qualunque legame affettivo. Quello che contava, l’unica cosa che conta ancora oggi, è l’engagement, ovvero quanto i contenuti sono capaci di ingaggiare gli utenti, di generare le loro reazioni. Ci sono molti indicatori per l’engagement: cosa commentiamo, a cosa mettiamo un like, cosa condividiamo. Ma uno è il più importante di tutti: è il tempo. L’engagement sale se un utente continua a tenere la app aperta e scrollare il prossimo video scelto apposta per lui o per lei. Ben presto si è iniziato a capire che l’opzione «For You» di TikTok aveva una capacità incredibile di vincere la partita più importante nella sfida tra i social network: quella per la nostra attenzione. Zhang Yiming era riuscito a creare un algoritmo che creava dipendenza meglio di tutti gli altri. Già nel 2020 TikTok sorpasserà Facebook per tempo trascorso sulla piattaforma da un utente medio. È stato allora, più o meno, che i social network hanno smesso di essere social, per essere solo network: macchine per l’intrattenimento personale di miliardi di persone. Con la ricerca ossessiva dell'engagement, i social network sono entrati nel campo delle neuroscienze e della psicologia, ovvero hanno dovuto provare a capire il modo in cui funziona il nostro cervello, in cui si formano i pensieri. Si è a lungo cercato di scoprire chi fossero i neuroscienziati assunti dalle grandi piattaforme digitali per studiare come far crescere l’engagement attraverso degli algoritmi ben scritti. Non è uscito fuori nessun nome di rilievo, nessun guru. Epperò il tema in quegli anni in Silicon Valley andava per la maggiore e Zuckerberg, che da questo punto di vista è davvero un visionario, lo aveva intuito prima di tutti, quando era ancora studente, visto che ad Harvard, nel 2003, si era iscritto non semplicemente al corso di laurea in «computer science» ma a «psicologia e informatica», una combinazione di materie che spiega benissimo la traiettoria che poi prenderà Facebook. Nel tentativo di conquistare la nostra attenzione, di rastrellare più dati e fare più soldi, l’obiettivo delle aziende della Silicon Valley divenne insomma progettare siti o applicazioni che fossero in grado di manipolare il funzionamento del nostro cervello. Nel 2015 comparve anche una startup che prometteva di prendere un sito qualunque e modificarlo in modo da agganciare gli utenti: si chiamava Dopamina Labs. Infatti è stata la dopamina l’ingrediente segreto, il Sacro Graal della Silicon Valley di quegli anni. Cos’è la dopamina? È un neurotrasmettitore che gioca un ruolo importante nella nostra felicità visto che è associato al piacere, alla ricompensa, alla motivazione e che quindi ci induce a ripetere comportamenti che ci hanno dato quelle sensazioni. Esempio: quando non riusciamo a resistere e riprendiamo continuamente in mano lo smartphone per vedere se ci sono notifiche o controllare gli aggiornamenti di status dei nostri amici, stiamo semplicemente cercando una piccola scarica di dopamina. Esattamente come quando siamo davanti ad una slot machine e non riusciamo a smettere di azionare la leva sperando di vincere qualcosa. Questo meccanismo - la produzione di dopamina - si verifica ogni giorno con un sacco di cose che ci fanno stare bene e ci rendono la vita migliore; e con alcune che invece non ci fanno affatto bene e che creano dipendenza, come l’alcol, le droghe e, in certi casi, i social network. Succede questo: l’algoritmo dai nostri comportamenti impara continuamente quali contenuti ci generano una piccola scarica di dopamina, e quindi fa in modo di farceli trovare rinnovati ogni volta che apriamo una certa app. Senza accorgercene, siamo fregati. Felici e fregati. La prima vittima sacrificale di questa svolta è stata la verità. E prima ancora che decine di ricerche scientifiche dimostrassero che un contenuto falso postato sui social circola molto più velocemente di un contenuto vero (e raggiunge un pubblico molto maggiore), è stata l’istituzione da sempre deputata al controllo della «verità dei fatti» a lanciare l’allarme: il giornalismo. Il 23 marzo 2017 il settimanale Time è uscito con una copertina storica: su fondo nero c’era solo una scritta rossa, a caratteri cubitali, «Is Truth Dead?» - la verità è morta?. Era una citazione di un’altra celebre copertina del 1966 dedicata alla crisi della religione («Is God Dead?»); ed era un grido disperato per quello che stava capitando con Donald Trump alla Casa Bianca. Il declino della «verità dei fatti» sostituita dalle «verità alternative» o dai «fatti alternativi», un concetto che la Casa Bianca aveva coniato per giustificare una falsa affermazione a proposito della folla che aveva seguito un comizio del presidente. Il problema non era che qualcuno affermasse una cosa falsa o esagerata, e nemmeno che fosse il capo del più importante Paese del mondo a farlo. Quello che è sempre accaduto nella storia dell’umanità, le bugie mica le ha inventate Facebook. Il problema era che quella affermazione fosse automaticamente spinta, favorita, rilanciata dagli algoritmi dei social perché questo aumentava l’engagement degli utenti più di una cosa vera, noiosamente vera. E che quindi, come conseguenza, le persone giorno dopo giorno, iniziassero a credere a «verità alternative» e lo facessero quasi con un senso di ribellione verso l’establishment, verso il giornalismo, verso la scienza, considerate, a torto o a ragione, parte di un sistema di potere. Gli algoritmi pro engagement e la ribellione contro le élite, rinforzandosi a vicenda, hanno creato quella miscela esplosiva che ha portato negli anni scorsi ai movimenti di opinione contro i vaccini o di negazione del cambiamento climatico. Non è stato un caso. Del resto di questa cosa a Meta (il nome che il gruppo di Zuckerberg aveva assunto per farci dimenticare lo scandalo di Cambridge Analytica) se ne accorsero quasi subito. Lo sapevano e sono andati avanti. È andata così. Dopo aver deciso di provare a imitare l’algoritmo di TikTok lanciando le «meaningful social interactions» (MSI) nel 2017 come criterio per la scelta dei contenuti da mostrare agli utenti, l’anno seguente in un documento interno un gruppo di ingegneri chiese al vertice dell’azienda: «Does Facebook reward outrage?». Cioè: non è che per caso Facebook premia l’indignazione? I dati di traffico mostravano chiaramente che l’algoritmo favoriva i contenuti che generano rabbia e questo, collegato al fatto che i giornali usavano Facebook come principale canale di distribuzione delle notizie, era un pericolo: «Alcuni editori potrebbero decidere di capitalizzare la negatività… Per effetti dei nostri incentivi, alcuni potrebbero decidere di massimizzare i profitti a danno del benessere dei lettori… lasciando da parte le questioni etiche, l’attuale funzionamento dei nostri algoritmi non sembra allineato con la nostra missione». Quale missione? Creare un mondo migliore no? Ma si può creare un mondo migliore premiando solo la rabbia e la paura delle persone? Una cosa va chiarita prima che ci siano obiezioni. Non è che nel mondo non ci siano motivi di scontento e che, in qualche caso, non ci siano ragioni per indignarsi. Ma se dall’equazione delle nostre vite leviamo la speranza, leviamo i comportamenti costruttivi, la generosità, i piccoli passi avanti, cosa resta? Resta solo una rabbia senza limiti. Senza la speranza, diventiamo disperati. Ma torniamo al memorandum interno di Facebook: diventerà pubblico solo due anni dopo, ma ovviamente finisce subito sul tavolo di Zuckerberg e il grande capo, preoccupato dalla concorrenza di TikTok, decide di andare avanti lo stesso. Di lasciare da parte «le questioni etiche». Che muoia - simbolicamente - la verità con tutti i giornalisti. Qualcosa in verità fu fatto. La soluzione proposta da Facebook per contrastare i rischi paventati dai propri ingegneri nel documento del novembre 2018 fu un palliativo. Fu il «fact checking». Ovvero affidare ad una rete di professionisti il controllo della verità dei fatti di alcuni post controversi avvertendo gli utenti che c’è qualcosa che non va; e, solo nei casi più estremi, rimuovere i post. Questa partita fra verificatori e disinformatori - spesso in mala fede, a volte al soldo di potenze straniere -, è durata qualche anno ma è stata una partita truccata: mentre l’intelligenza artificiale infatti cercava in tutti i modi di aumentare il nostro engagement, anche favorendo le notizie false, anche facendoci indignare per cose che non esistevano o almeno non nei termini indicati, un piccolo manipolo di esperti cercava di mettere i famosi «puntini sulle i». I troiani contro i greci avevano più chances di farcela. E’ come se la stessa organizzazione spacciasse eroina e poi fornisse anche il metadone per disintossicarsi. Cos’altro poteva andare storto? Ah sì. La salute mentale dei nostri figli. 2
audio2 Inviato 25 Marzo Inviato 25 Marzo basta che continuino con la digitalizzazione spinta del sistema e vedrai i risultati, siamo ancora a niente. chissà che come per il resto qualcuno rinsavisca prima che sia troppo tardi.
maurodg65 Inviato 25 Marzo Inviato 25 Marzo 4 ore fa, Savgal ha scritto: Per usare una metafora, la propaganda in TV era ed è un soldato che tira una sventagliata di mitra alla cieca, il “microtargeting psicografico” dei social media è un cecchino con una mira eccellente. Certo, esattamente come lo è stato il passaggio dalla carta stampata alla TV ed a seguire tutto il resto, più la tecnologia avanza più è efficace la propaganda, a differenza della sezione politica dove si riusciva a contattare solo gli iscritti ed i militanti oggi i social possono profilare un cittadino sulla base dei propri interessi e “mirare” moltissime persone, ma al tempo avvenne anche con Forza Italia quando con le TV riuscì ad organizzare un partito su scala nazionale senza radicamento effettivo sul territorio, ricordiamo i kit del candidato venduti come esempio? Ma la politica ha un seguito nel mondo reale e non e il marketing di un prodotto, poi avvierà la realtà, oggi se si rivotasse negli USA Trump verrebbe rieletto? Fra due anni alle elezioni di midterm i Repubblicani manterranno la maggioranza alla camera ed al senato? Ed i repubblicani avranno no uno scatto d’orgoglio per fermare il tycoon prima della disfatta?
extermination Inviato 25 Marzo Inviato 25 Marzo 47 minuti fa, Savgal ha scritto: quando l'algoritmo gioca con il nostro cervello Bene! Diciamolo a chiare lettere: non siamo più in grado di riconoscere i fattori che possono influenzare le nostre scelte e i nostri comportamenti; non siamo più in grado di fare corrette analisi e valutazioni delle informazioni, di eventi e situazioni che riceviamo dai medi; non siamo più in grado di farci una “opinione informata” di valutare vantaggi, svantaggi e di riconoscere i valori dai disvalori. Non ci resta che attente un lento spegnimento del nostro sistema cognitivo. Goodbye cruel world wide web
LUIGI64 Inviato 25 Marzo Inviato 25 Marzo Indubbiamente i social possono essere catalizzatori di rabbia e negatività, come di una forte opposizione nei confronti dell'establishment Sarebbe da chiedersi quali siano le motivazioni di tanta frustrazione, violenza e posizioni pre convenzionali Una volta demonizzato i social, cosa facciamo....
LUIGI64 Inviato 25 Marzo Inviato 25 Marzo 9 minuti fa, extermination ha scritto: non siamo più in grado di fare corrette analisi e valutazioni delle informazioni Una certa narrazione, ci racconta questo 😏
extermination Inviato 25 Marzo Inviato 25 Marzo 1 minuto fa, LUIGI64 ha scritto: Indubbiamente i social possono essere catalizzatori di rabbia e negatività, come di una forte opposizione nei confronti dell'establishment E già! Inimmaginabili ed incommensurabili i danni che possono fare umani o robot da dietro una tastiera; soprattuto sulle menti deboli!
LUIGI64 Inviato 25 Marzo Inviato 25 Marzo 2 minuti fa, extermination ha scritto: soprattutto sulle menti deboli! Menti deboli, ossia ignoranti con istruzione scolastica insufficiente, o cosa Quale sarebbe una possibile soluzione..
Savgal Inviato 25 Marzo Inviato 25 Marzo Le colonnine blu a sinistra mostrano la quota di popolazione definita di “livello 1” o inferiore, nel 2012. I rombi neri sempre a sinistra indicano invece la quota di popolazione a quel livello o sotto a quel livello undici anni più tardi. Per chiarezza: quando si è a quello che l’Ocse definisce “livello 1”, si rischia di non capire dalle istruzioni nella scatola quale sia la corretta dose di una medicina da dare a un bambino; quando si è sotto al “livello 1”, si comprende il significato di una singola frase ma non necessariamente un concetto espresso in più frasi o la sua verosimiglianza.
extermination Inviato 25 Marzo Inviato 25 Marzo Adesso, LUIGI64 ha scritto: Quale sarebbe una possibile soluzione.. Chiedi all’esperto; finita la pausa pranzo. Buon lavoro.
Messaggi raccomandati