Vai al contenuto
Melius Club

Social-network, il cancro della nostra società


Messaggi raccomandati

Inviato

@extermination

Consentimi, il comportamento razionale in molti rappresenta una quota marginale del loro agire.

Se donne e uomini fossero guidati dalla razionalità vivremmo in un mondo decisamente migliore.

Inviato

Il raziocinio spesso scarseggia, ma che sia una motivazione esaustiva, mi pare un po' troppo

Poi, quale sarebbe la causa di tutta questa pre razionalità...

 

extermination
Inviato
10 minuti fa, Savgal ha scritto:

vivremmo in un mondo decisamente migliore

Il mondo è in mano a pochi che, nella sostanza, decidono le sorti dell’umanità.

Inviato

 

Ormai i social network fanno parte della nostra quotidianità ed impegnano la maggior parte del nostro tempo. L’uso dei social media in particolare, come Facebook agli inizi ed Instagram e TikTok oggi, è cresciuto esponenzialmente al punto da coinvolgere quasi il 60% della popolazione mondiale.

Queste piattaforme, che permettono di interagire e connetterci virtualmente agli altri creando un ponte tra il mondo reale e il mondo virtuale, sembrano però avere un notevole impatto sulla nostra autostima.

Attraverso questi ambienti digitali, infatti, avviene quello che è un fenomeno naturale tipico del comportamento umano: il confronto sociale. Questo processo è uno di quelli essenziali che contribuiscono allo sviluppo dell’autostima di tutti gli individui, dai più giovani ai più adulti.

https://www.culturedigitali.org/autostima-e-social-network-leterno-confronto-con-gli-altri/

 

Inviato

Accidenti, Facebook quasi ai livelli di Whatsapp...

extermination
Inviato

@LUIGI64Chissà se qualche Ente qualificato ha stimato il tempo speso sui Social da dipendenti pubblici e privati durante l’orario di lavoro ed i conseguenti impatti in termini di minor efficienza /produttività ed eventuali maggiori costi per il datore di lavoro. Se è vero, come dici poco sopra, che impiegano la maggior parte del loro tempo sui social …( io non credo proprio…)

Inviato

 

L’emozione del like

Gli effetti di un semplice “mi piace” (like) sono molto più profondi di quanto si possa percepire soggettivamente, tanto che la ricerca in neuroscienze ha mostrato attraverso neuroimmagini che ricevere i like ha un effetto sui circuiti neurali della ricompensa (v. Box 3.2). Una ricerca statunitense (Wohn et al. 2016) ha poi chiarito un aspetto importante delle emozioni positive suscitate dai like: gli utenti li percepiscono come supporto sociale. Ciò accade non solo nel caso in cui l’utente sia soggettivamente soddisfatto dei like specifici ricevuti, ma anche per il semplice volume di like ricevuto. Il fenomeno è stato confermato anche quando i ricercatori hanno controllato lo stato psicologico degli utenti: esso veniva riferito sia da utenti con basso che alto benessere psicologico. Un fattore che invece è risultato giocare un ruolo in questa percezione di supporto sociale da like è il livello di autostima: la probabilità di percezione di supporto sociale è inferiore negli utenti con autostima più bassa. Infine, per gli utenti maggiormente “self-conscious”, che hanno una propensione generale più alta alla vergogna e al senso di colpa, era più probabile percepire supporto sociale dai like

...Utilizzando la risonanza magnetica funzionale (fMRI), lo studio ha mostrato come la quantità dei like ricevuti dalle foto sia in relazione con diverse aree del cervello dell’utente, maggiormente attivate in corrispondenza di foto con molti like rispetto a foto con pochi like. Il nucleus accumbens, che è una parte importante dei circuiti della ricompensa, è emerso come una regione particolarmente implicata nell’esperienza di ricevere like alle foto postate dall’utente. I circuiti della ricompensa hanno un ruolo fondamentale nel rinforzo del comportamento (Horvitz, Jacobs 2021). In particolare, quando un comportamento (in questo caso, condividere qualcosa sul social) può avere un esito di ricompensa (in questo caso, ricevere molti like per la condivisione), si instaura un processo di condizionamento, che può portare a modifiche comportamentali non necessariamente decise dall’utente in modo consapevole. Le condivisioni alle quali fa seguito un gratificante gruzzolo di “mi piace” ricevono un rinforzo positivo, mentre quelle per le quali tale piacevole effetto è assente o scarso non ricevono rinforzo. Prima che gli studi con neuroimmagini spiegassero in modo più approfondito il fenomeno del rinforzo, ricercatori come B.F. Skinner, che condizionavano un animale all’interno di una scatola a compiere un’azione decisa dallo sperimentatore, avevano osservato che il rinforzo di un comportamento (ad esempio, fornire del cibo se l’animale schiaccia un pulsante specifico invece di un altro) aumenta la probabilità di far ripetere il comportamento (Staddon, Cerutti 2003). Nel contesto social, le scelte di cosa l’utente condividerà in futuro possono similmente essere plasmate dai suoi amici e da utenti sconosciuti, anche completamente fasulli, che possono inviare like all’utente. Le dinamiche illusorie dei social possono poi amplificare il potere del like, dando all’utente la sensazione che all’altra persona sul social piaccia quanto scritto nel post (o piaccia direttamente l’utente stesso). In una relazione faccia a faccia, sarebbe difficile provare questa sensazione senza ricevere prima una serie di chiari segnali dallo sguardo, dall’espressione facciale, dai toni della voce, dalla postura e dalla vicinanza anche fisica che l’interlocutore manifesta.

 

 Sostenibilità emotiva dell’uso dei social

In alcuni utenti, la dimensione emotiva dei social può favorire l’instaurarsi di forme di dipendenza. Il Box 3.2 ha già suggerito un meccanismo neurale attraverso cui le emozioni suscitate dai like possono agire come un rinforzo che spinge poi l’utente a desiderare di ripetere sempre più spesso e a lungo i comportamenti di accesso e uso dei social. Questo fenomeno può essere amplificato dal fatto che i social sono progettati per dare agli utenti ulteriori ricompense oltre ai like, ad esempio il piacere di scoprire dei post emotivamente coinvolgenti nel feed. Diversi autori sottolineano l’analogia fra l’uso dei social e l’uso di una slot machine (Eyal, Hoover 2016; Fisher 2022). Tale analogia è ben esemplificata dallo scrolling del feed: l’algoritmo che decide cosa far vedere all’utente inframmezza nel feed dei post che sa essere molto gratificanti per l’utente (in base alle numerose informazioni raccolte su quali sono i post con cui l’utente interagisce di più o su cui si sofferma di più) in un flusso dove colloca post che sa invece essere di basso o nullo interesse per l’utente specifico. Esattamente come un giocatore di slot  abbassa più e più volte la leva per vedere apparire sul display della slot la configurazione visiva desiderata e sentire i suoni a essa associati, ricevendo la ricompensa, l’utente social continua a scrollare fino a ricevere la ricompensa di un post particolare, interessante, emotivamente coinvolgente che lo premia per essere rimasto tutto quel tempo a fare scrolling. Inoltre, il fatto che l’utente sia di slot sia di social non possa prevedere quando esattamente arriverà la ricompensa rende il meccanismo ancora più potente: infatti, la probabilità che i neuroni della dopamina si attivino è molto più alta quando la ricompensa arriva in un momento inaspettato (Horvitz, Jacobs 2021). Se spostiamo l’attenzione dal comportamento di scrolling a quello di post, ritroviamo uno schema analogo: quando un utente condivide qualcosa, non può prevedere cosa accadrà: se e quanti like riceverà, se e quanti commenti riceverà e di che tipo saranno. Non sa quindi se la ricompensa arriverà, come si manifesterà e quando si manifesterà, esattamente come il giocatore di slot. Non sorprende quindi che il filone storico di ricerche sulle dipendenze dal gioco o da sostanze abbia in tempi recenti esteso la sua considerazione agli utenti social, trovando peraltro alcune similitudini in termini di attivazioni funzionali e struttura dei circuiti della ricompensa negli utenti che fanno un uso eccessivo di social (He et al. 2017; Turel et al. 2018). Il motivo per cui alcuni autori preferiscono usare il termine meno medicalizzato “uso eccessivo dei social” è che la “dipendenza da social” non è un disturbo al momento formalizzato nei manuali diagnostici come il DSM-5 (American Psychiatric Association 2022), anche per l’assenza di un criterio condiviso con cui misurarla. Infatti, una meta-analisi (Cheng et al. 2021) degli studi sulla prevalenza di una “dipendenza da social” negli utenti di 32 nazioni ha evidenziato come i numeri riportati varino molto a seconda dello schema classificatorio usato dai ricercatori, producendo stime che oscillano da una prevalenza del 5% (per i criteri classificatori più stretti) al 25% (per gli studi con criteri più permissivi).

Estratti da questo interessante testo:

 

cover.jpg

extermination
Inviato
5 minuti fa, LUIGI64 ha scritto:

Il fenomeno è stato confermato anche quando i ricercatori hanno controllato lo stato psicologico degli utenti:

Ma che caxxo di utenti testano !!! Come le scimmie.

  • Haha 1
Inviato

Però il testo mi pare piuttosto interessante

☺️

 

Inviato

 

Cosi il vento di Facebook ha alimentato il populismo. Cosa è andato storto?

di Riccardo Luna

 

Dal massacro dei rohingya in Myanmar alla «guerra algoritmica cognitiva»: il nuovo algoritmo sul social di Zuckerberg doveva incoraggiare «le interazioni sociali più significative» ma è diventato un pericolo per la democrazia

 

 

 

Cos’è andato storto?

Come è successo che Facebook, dopo lo scandalo di Cambridge Analytica, non ha davvero «dato più voce alle persone» ma ha perseguito l'engagement a ogni costo? E ha iniziato a «premiare e incoraggiare contenuti di bassa qualità»? Quand’è, precisamente, che la storia è cambiata?

Ecco la quarta puntata di una serie che proverà a rispondere a questa domanda. Trovate qui la prima, qui la seconda e qui la terza. Da martedì 8 aprile sarà online la quarta.

 

Prima di parlare degli adolescenti, però, e degli effetti dei social network sugli adolescenti, è bene fermarsi a capire che fine hanno fatto tutta questa paura, tutta questa rabbia, che avvertiamo attorno a noi, moltiplicate dagli algoritmi della Silicon Valley (e della Cina, visto che in questa vicenda c’è anche TikTok). Come si sono dipanate. Cosa sono diventate. Perché altrimenti non capiamo dove siamo davvero, non capiamo perché a un certo punto ci siamo ritrovati uno contro l’altro, e ci siamo chiusi in casa a doppia mandata, e abbiamo smesso di pensare al futuro, abbiamo pensato soltanto a salvarci, a cavarcela, noi, che vadano al diavolo tutti gli altri. Perché, per esempio, a un certo punto in tanti hanno pensato che sì, il ritorno di Donald Trump alla Casa Bianca fosse la cosa migliore in fondo. Che fosse la risposta giusta alla paura e alla rabbia. E infine perché il populismo, un po’ ovunque, sembra una forza a volte inarrestabile. Per farlo bisogna partire dal momento in cui qualcuno — non l’unico, ma non erano tanti all’epoca — ci ha detto che «il re era nudo», che la Silicon Valley ci stava fregando. E noi lo abbiamo applaudito, certo, ma non gli abbiamo creduto abbastanza. Siamo rimasti lì. Non abbiamo cambiato nulla. Non abbiamo «cancellato subito i nostri profili social», come ci esortava a fare il guru tecnologico Jaron Lanier in un libricino-manifesto uscito nel 2018. Ma non è di lui che dobbiamo parlare adesso. 

 

«...E tutto questo odio, tutta questa violenza, sono stati alimentati da un piccolo gruppo di aziende tecnologiche che formano la più grande macchina di propaganda della storia». È il 21 novembre 2019. Il Jacob Javits Convention Center di Manhattan è gremito. Quattromila persone sono accorse per partecipare al summit annuale della Anti-Defamation League, un’organizzazione nata agli inizi del ‘900 per contrastare l’antisemitismo e diventata con il tempo un baluardo contro l’odio e le persecuzioni online. Sul palco c’è la persona scelta per ricevere l’International Leadership Award: non è un politico, non è un attivista, non è un filosofo. È un attore, o meglio, un comico di gran classe (tre nomination all’Oscar): è Sacha Baron Cohen, ovvero “Borat” per i suoi ammiratori, «il primo giornalista specializzato in fake news», come lo definirà lui stesso citando un film di culto.

 

Baron Cohen non è lì per far ridere, stavolta, anche se all’inizio qualcuno ride lo stesso: fa invece un discorso appassionato contro i social network. Anzi, contro Mark Zuckerberg. Lo cita cinque volte e ogni volta lo fa per smontarne gli argomenti. A tratti sembra una requisitoria. Dice fra le altre cose che su Internet tutte le cose sembrano avere lo stesso valore: il sito di Breitbart (il progetto editoriale di Steve Bannon, l’oscuro consigliere di Trump) assomiglia a quello della Bbc; i falsi Protocolli di Sion hanno lo stesso peso di un rapporto sull’antisemitismo della Anti-Defamation League; e le grida di un pazzo sui social sembrano credibili come le scoperte di un premio Nobel. Uno vale uno, chi l’aveva già detto? Siamo arrivati là dove il filosofo tedesco Hegel aveva previsto: è «la notte in cui tutte le vacche sono nere», dove sparisce la verità e quindi anche la conoscenza. «Abbiamo perso», dice Baron Cohen sconsolato e ormai in sala non ride davvero più nessuno. «Abbiamo perso un senso condiviso dei fatti fondamentali, il senso sul quale si basa una democrazia». Cita Voltaire: «Aveva ragione quando diceva che “quelli che possono farti credere a delle assurdità possono farti commettere delle atrocità”. I social media consentono di far arrivare le assurdità a miliardi di persone». Non esagerava, come vedremo: delle atrocità si stavano compiendo in effetti.

 

Quel discorso fa il giro del mondo. I siti web dei giornali lo rilanciano con convinzione e con la recondita speranza di arginare lo strapotere dei social che li stanno rendendo sempre più marginali. Ma la verità è che non cambierà assolutamente nulla. Su YouTube il video integrale lo guardano appena due milioni di persone. Non diventa “virale”. Il post di un medio influencer di Instagram su come perdere peso o aumentare il testosterone con la dieta giusta ha molto più impatto.

 

In quel momento la tempesta su Facebook si è appena placata. Eppure era stata dura stavolta. L’anno precedente Mark Zuckerberg per lo scandalo Cambridge Analytica nel giro di un mese aveva dovuto scusarsi solennemente due volte. «I am sorry, sono dispiaciuto per quello che è accaduto», aveva detto in un'intervista all'emittente televisiva Cnn. Poi, durante una drammatica testimonianza al Congresso, sudando copiosamente, ribadirà: «Non abbiamo capito davvero la responsabilità che abbiamo nella gestione dei dati dei nostri utenti. È stato un grosso errore, è stato un mio errore. I am sorry». Sembrava al tappeto, sembrava uno arrivato alla fine del suo regno. In quei giorni il mensile Wired, da sempre bibbia e trombettiere della rivoluzione digitale, era uscito con una copertina choccante: un primo piano del giovane Mark — aveva appena 34 anni — con il volto tumefatto da un pestaggio (non c’era ancora l'intelligenza artificiale generativa: era un’opera dell’artista Jake Rowland, realizzata mescolando due foto, una reale e una con un modello truccato).

 

Molti iniziarono a chiedere le dimissioni del fondatore: non può essere più amministratore delegato di un gruppo così importante, era la richiesta condivisa anche da alcuni azionisti. Ma quella richiesta sottovalutava due cose: la prima era la sua capacità di resistere sotto attacco; la seconda il fatto che per come era stata creata l’azienda, per le regole dello statuto e il peso dato alle azioni, Zuckerberg non può essere licenziato mai. Mai. E mai si sarebbe dimesso.

 

E così si era rialzato. Aveva comprato una pagina su alcuni giornali per mostrarsi contrito («Se non sappiamo gestire i vostri dati personali, non meritiamo di farlo», era stato il messaggio). E aveva chiuso i conti con la questione Cambridge Analytica pagando una multa enorme alla Federal Trade Commission: cinque miliardi di dollari, motivo per cui per la prima volta il profitto del 2018 sarà in leggero calo rispetto all’anno precedente. Ma in definitiva quella storiaccia non aveva innescato una vera crisi: l’azienda aveva registrato soltanto «un leggero calo degli utili» ma con un fatturato di oltre 70 miliardi di dollari. La “macchina” di Menlo Park produceva soldi a pieno regime. Lo scandalo non imponeva di cambiare i piani di Zuckerberg e soprattutto il suo modello di business. In fondo, a rivederlo oggi, era stato poco più di un diversivo: il problema di Facebook infatti non era tanto che una azienda terza avesse usato i dati degli utenti per fare propaganda politica mirata; il problema, il vero problema, era il funzionamento stesso dell’algoritmo che decideva cosa farci vedere e quali nostre reazioni emotive innescare. È bene ricordarlo di quali reazioni parliamo: la paura negli utenti anziani e la rabbia per il ceto medio impoverito. Quel problema non era stato sfiorato dallo scandalo.

 

Un mese prima del vibrante discorso di Sacha Baron Cohen a New York, Zuckerberg era andato a Washington ad arringare gli studenti della scuola di politica della Georgetown University ed era di nuovo “il solito Zuck”. Il paladino della libertà di espressione. Niente ferite sul volto e soprattutto niente giacca e cravatta come nelle disastrose audizioni parlamentari. Aveva la solita t-shirt nera a maniche lunghe e anche la solita, formidabile, faccia tosta. Agli studenti aveva detto che tutta la sua vita da imprenditore, il senso della piattaforma che aveva realizzato, si riassumeva in due soli obiettivi: dare più voce alle persone e connetterle. Come non volergli bene? E dopo aver citato (mentendo sui numeri, ma lo avremmo saputo molto tempo dopo) i successi del sistema di intelligenza artificiale implementato per intercettare contenuti pericolosi, aveva scandito questa frase: «Io credo che in una democrazia le persone, non le aziende tecnologiche, dovrebbero decidere cosa è credibile». Le persone dovrebbero decidere. Non gli algoritmi. E allora perché su Facebook e Instagram (ma anche su YouTube, Twitter e TikTok) accadeva e accade il contrario?

 

 

 

Era Il 17 ottobre 2019 e Mark era uscito dall’aula magna fra gli applausi ovviamente. Il messaggio era passato forte e chiaro. Ma le cose stavano diversamente. Come abbiamo già visto, l’anno prima, nel tentativo di resistere all’avanzata di TikTok, il criterio in base al quale ci venivano mostrati alcuni contenuti invece di altri su Facebook e Instagram era stato modificato per privilegiare «le interazioni sociali più significative». Era l’ennesima svolta per inseguire l’engagement e conquistare l’attenzione degli utenti. Che effetti aveva avuto? Un team di ingegneri di Menlo Park aveva avuto l’incarico di scoprirlo e i risultati erano spaventosi. In una nota interna — e ovviamente segreta — dell’aprile 2019 (e quindi sei mesi prima del discorso di Washington sul volemose bene, giù le mani dalla libertà di espressione!), si raccontava che molti esponenti di partito europei sostenevano che il nuovo algoritmo stesse cambiando il discorso politico: «In peggio». Infatti, proseguiva il rapporto, il peso attribuito ai contenuti che venivano condivisi (la “reshareability”), «premia e incoraggia contenuti di bassa qualità». Chiariamo: i partiti hanno da sempre un mix di contenuti positivi e negativi, ma la sensazione dei dirigenti di Facebook che stilano quel rapporto è che «con il nuovo algoritmo convenga produrre più contenuti negativi per raggiungere più persone; i post positivi si sono molto ridotti e al loro posto ci sono contenuti incendiari e attacchi diretti agli avversari». Molti partiti, era la conclusione, temono per gli effetti a lungo termine della democrazia. Non una cosa banale insomma. La democrazia in pericolo. Lo sapevano. Uno degli intervistati lo aveva spiegato meglio di altri: «Ci state costringendo a prendere posizioni che non ci piacciono e che fanno male alla società, ma noi sappiamo che se non facciamo così non vinceremo mai la battaglia sui social media».

 

Era l’inizio del 2019, in Europa il populismo veleggiava a tutta forza e in Italia era l’anno della Bestia, il team di social media manager artefice del successo elettorale di Matteo Salvini, il cui linguaggio politico sembrava fatto apposta per l’algoritmo di Facebook.

 

Questo “difetto di progettazione” dell’algoritmo dei social negli ultimi quindici anni è stato sfruttato ampiamente da chi aveva interesse a indebolire le democrazie occidentali. In testa la Russia, ovviamente. Nel 2013 era stato addirittura un capo di stato maggiore, il generale Valery Gerasimov, a mettere nero su bianco il testo di un suo discorso dell’anno prima in cui si enunciava il concetto di “guerra ibrida asimmetrica”, ovvero la necessità di utilizzare anche la rete e in particolare i social network per far circolare notizie false in grado di condizionare l’opinione pubblica. È effettivamente accaduto: a parte gli attacchi informatici, innumerevoli, degli hacker russi, sono stati dimostrati moltissimi casi in cui i russi hanno postato contenuti falsi o fuorvianti (per esempio in occasione del referendum sulla Brexit) che poi l'algoritmo di Menlo Park regolarmente, inconsapevolmente, premiava. Qualche anno più tardi in Cina la “dottrina Gerasimov” è stata ulteriormente affinata con il concetto di “guerra algoritmica cognitiva”. Un approfondimento di questi documenti ci porterebbe lontano, ma anche una semplice analisi semantica rivela di cosa si tratta. Primo: di una guerra. Secondo: fatta tramite degli algoritmi. Terzo: per cambiare la nostra sfera cognitiva, quello che sappiamo, quello in cui crediamo. Ci torneremo, parlando di TikTok.

 

Ora che degli avversari possano provare a sfruttare le debolezze di una società aperta come la nostra per fiaccarci, ci sta. Fa parte del gioco. È la geopolitica, bellezza. Diverso è il fatto che gli algoritmi dei social abbiano spesso creato dei danni a noi stessi senza che nessuno, progettandoli, abbia previsto che lo avrebbero fatto; o lo abbia preteso o imposto in qualche modo. Danni collaterali a volte devastanti.

 

Il caso forse più eclatante — il massacro della minoranza musulmana dei rohingya in Myanmar nel 2017 — lo ha spiegato recentemente lo storico Yuval Harari a partire da un rapporto di Amnesty International che aveva documentato, al di là di ogni ragionevole dubbio, il ruolo degli algoritmi nel fomentare l’odio etnico che poi si era tradotto in violenze efferate. Sostiene Harari: «I dirigenti di Facebook mica hanno scritto algoritmi per incitare la popolazione a prendersela con la minoranza musulmana, ma hanno soltanto chiesto di premiare i contenuti che avessero il massimo di engagement, che provocassero delle reazioni degli utenti. Gli algoritmi hanno scoperto che i post che facevano riferimento ad una cospirazione dei rohingya scatenavano gli utenti — la rabbia è il sentimento più facile per alzare l’engagement — e hanno mostrato quei post ad un maggior numero di persone. Dire che i dirigenti di Facebook o gli algoritmi non hanno colpe di quello che è accaduto dopo perché mica li hanno scritti loro i post fasulli sulla cospirazione dei rohingya, equivale a dire che il direttore di un giornale non è responsabile di quello che mette in prima pagina perché mica li ha scritti lui gli articoli. È un enorme potere decidere cosa vedranno gli utenti e quel potere implica una responsabilità. Nel caso del Myanmar è importante notare che l’algoritmo aveva come obiettivo di aumentare l'engagement degli utenti e l’obiettivo è stato centrato».

 

In quegli anni si è ritenuto o almeno sperato che la soluzione a questo lato oscuro della rete fosse il fact-checking, il controllo della verità dei fatti citati in ogni singolo contenuto postato sui social. È il caso di riconoscere che il rimedio non ha funzionato. E non perché sia praticamente impossibile controllare tutto (solo su Facebook gli utenti postano un milione di contenuti al minuto). Ma perché la verità ha tante sfumature, la stessa cosa si può raccontare in modi diversi a seconda del punto di vista e un “tribunale permanente dei social” non è un rimedio efficace se non per pochi gravissimi casi eclatanti: il resto è censura e alimenta il senso di ribellione «contro le elite che controllano il mondo». Inoltre il fact-checking — che per i giornalisti è un dovere assoluto — sui social network è vissuto come un'opinione in più, faziosa se smentisce i pregiudizi o le aspettative; e in definitiva non ha fatto cambiare idea a nessuno.

 

Quando tre mesi fa, per compiacere il neo rieletto presidente Trump, Zuckerberg ha annunciato «la fine del fact-checking» su Facebook e Instagram, molti hanno gridato alla «fine della verità» ma la verità in rete era morta da un pezzo come abbiamo visto. Invece di chiedere ad una società tecnologica di ergersi a “guardiano della verità” dei nostri post, basterebbe pretendere di non favorire quelli che scatenano rabbia e paura; pretendere di giocare tutti alla pari, senza trucchi. Senza engagement. Ma questo farebbe andare a picco i profitti e gli azionisti non lo tollererebbero. Infatti quando negli anni scorsi sul tavolo dell’amministratore delegato di Meta sono arrivati rapporti interni ed esterni che provavano che «qualcosa stava andando storto», non è sostanzialmente cambiato nulla e la dinamica vista in Myanmar si è ripetuta infinite volte.

 

Una di queste merita di essere raccontata perché ci dà una chiave di lettura di tutto quello che abbiamo detto fin qui. Nel 2018 nello Sri Lanka una banale lite di traffico era finita con il pestaggio e la morte di un camionista e su Facebook aveva preso a circolare la versione — falsa — che fosse un'azione dei musulmani intenzionati a sfidare la maggioranza buddista del Paese. Ne erano seguiti dei post incendiari e poi la vendetta: moschee attaccate, negozi bruciati, case distrutte, altri morti. «Non è tutta colpa di Facebook», disse con onestà un dirigente del governo al giornalista del New York Times inviato a ricostruire i fatti, «i germi di quello che è accaduto, la rivalità fra musulmani e buddisti, sono i nostri; ma Facebook è il vento». Il vento. L’amplificatore del male che c’è nel mondo.

 

Sarebbe un errore colossale adesso spiegare l’ascesa del populismo con gli algoritmi dei social network: la crisi delle democrazie è un fenomeno più complesso ma non è esagerato affermare che senza i social network il populismo non avrebbe avuto la stessa forza distruttiva. E sarebbe ugualmente un errore negare tutto il bene che l’avvento dei social network ha comunque portato nelle nostre vite. E del resto in questi anni Mark Zuckerberg non ha smesso di ricordarcelo. Nel discorso di Washington del 2019 disse per esempio che il movimento Black Lives Matter era nato con un hashtag su Facebook; e poi aveva citato la possibilità per gli amici e i familiari di stare in contatto anche se lontani, il contrasto alla solitudine degli anziani, le opportunità per i piccoli imprenditori e gli artigiani di farsi conoscere e allargare il proprio mercato, l’utilità di una piattaforma comune in caso di disastri naturali. Tutto vero. È per questo che nonostante tutto siamo ancora lì, con i nostri profili social: perché ne abbiamo bisogno. Ma il lato oscuro dei social, quello che li ha fatti crescere e che li ha resi aziende miliardarie, è un altro: è la ricerca dell’engagement a tutti i costi. Ricordate le parole del funzionario governativo dello Sri Lanka? «Facebook è il vento». E il vento può gonfiare la tua vela e portarti dove vuoi oppure può farti naufragare. Il vento ti può portare dalla parte del presidente ucraino oppure da quella dell’invasore. I padroni dei social decidono come usare quel vento. Basta un clic a volte.

 

Dopo il drammatico incontro di Zelensky con Donald Trump alla Casa Bianca del 28 febbraio scorso, qualcuno su Instagram ha creato un oggetto, con il volto di Zelensky, per esprimergli solidarietà. Una cosa banale per consentire a tutte le persone di condividere l’immagine del presidente ucraino fra le proprie storie mentre il contatore si aggiorna. Per Gaza aveva funzionato («Tutti gli occhi su Rafah» era lo slogan), per Zelensky no. È accaduta una cosa bizzarra: chi postava la foto del presidente ucraino la vedeva, ma tutti gli altri no, non c’era, e dopo un po’ appariva la scritta «ancora nessuna visualizzazione».

Sicuramente sarà stato un bug: vi pare credibile che per far piacere a Trump qualcuno a Menlo Park abbia truccato le carte? Vi pare possibile?

 

loureediano
Inviato

Io non sono affatto d'accordo con quanto detto dal giornalista nel messaggio precedente il mio.

Trovo ridicolo prendersela con i social per le nostre menti deboli.

Se sei un cretino e la maggioranza è fatta da cretini è giusto che i cretini governino.

Se vogliono Trump o la Le Pen o la Meloni-Salvini o chicchessia è nostro dovere contrastarli democraticamente non con argomenti che i cretini mai potranno capire.

Ad un cretino non farai mai capire che è un utile idiota.

Quegli scritti non provocheranno una sola cancellazione dai social 

Men che meno la mia, visto che non sono iscritto a nessuna piattaforma social, non ho nemmeno gruppi su WhatsApp 

 

maurodg65
Inviato
Il 28/03/2025 at 15:53, extermination ha scritto:

IMG_0220.webp

X alla fine è usato pochissimo rispetto agli altri social nonostante venga accusato di essere all’origine di tutti i mali del mondo, tra l’altro il social di Musk se ben usato è un’ottima fonte di informazione, ovviamente come si è sempre detto della carta stampata servono i filtri personali del lettore, cosa che spesso dimentichiamo di usare o che spesso usiamo per filtrare le notizie nel modo a noi più congeniale.

Inviato

Twitter era un social d'elite prima di diventare la fognatura che è X.

Oggi a contare nella società sono solo TikTok e Instagram per gli under 45 e FB per gli over.

Il resto briciole.

Linkedin da semi-scomparso ha riconquistato quote ed ora è molto utilizzato nel mondo profi/aziendale anche in Italia. 

ferdydurke
Inviato

Non si potrebbero chiudere tutti i social magari con la scusa di fare un dispetto a Trump che ci mette i dazzi

briandinazareth
Inviato
2 ore fa, maurodg65 ha scritto:

tra l’altro il social di Musk se ben usato è un’ottima fonte di informazione, ovviamente come si è sempre detto della carta stampata servono i filtri personali del lettore


:classic_biggrin:

questa è involontariamente magnifica.

è così proprio perché involontaria..

Inviato

@ferdydurke Dopo devi trovare qualcosa da far fare alle decine di milioni di niubbi d'ogni età che vivono ormai metà del loro tempo col naso attaccato al cell.

Sarebbe un problema occupazionale oltre che psichiatrico. 

Inviato

 

Il presunto narcisismo dei social media

Viene spesso genericamente rimproverato ai social media di nutrire e fomentare il narcisismo, in quanto indurrebbero l’utente a considerare gli altri semplici oggetti, mere estensioni del proprio io.

Com’è risaputo il termine e il concetto di narcisismo si rifanno al mito di Narciso, che si sarebbe innamorato della sua stessa immagine, riflessa nell’acqua. Come narrato da Ovidio nelle Metamorfosi, Narciso, “insensibile all’amore, non ricambiò la travolgente passione di Eco, per cui fu punito dalla dea Nemesi che lo fece innamorare della propria immagine riflessa in una fonte; morì consumato da questa vana passione, trasformandosi nel fiore omonimo” (Treccani s.d.).

...

Balick osserva che “il modo in cui i social network online si prestano alla presentazione di sé incoraggia non il narcisismo di per sé, ma piuttosto una presentazione di sé che cerca il riflesso degli altri (pubblico immaginario, pubblico in rete)” nel tentativo di compensare con il bagliore di un effimero successo l’oscura fragilità interiore. In questo contesto i like, retweet e tutte le forme di apprezzamento e di commento positivo sui social media funzionano, afferma Balick (Balick 2014), “come carezze all’ego dell’utente”, laddove il termine “carezze” deriva dalla tradizione dell’analisi transazionale ed è definito da Berne (1964) come “qualsiasi atto che implica il riconoscimento della presenza di un altro…”. Il narcisista sarà dunque portato dalla propria struttura di personalità a ricercare nella conferma altrui del proprio valore la gratificazione compensatoria alla propria fragilità strutturale e dunque a ricercare tali conferme e gratificazioni anche sui social media. A loro volta i social media sono indubbiamente inclini a dar espressione al falso Sé, favorendo in tal modo un investimento narcisistico. Un ulteriore elemento dei social media che può favorire il narcisismo è la mancanza di consapevolezza corporea. Ciò comporta il pericolo di intellettualizzare il rapporto e di rimuovere le sensazioni corporee e con queste preziose informazioni emotive che vi sono correlate. È in definitiva quello che è accaduto a Narciso, innamoratosi di un’immagine percepita con la sola vista ma che rimaneva inaccessibile al suo corpo.

D’altro canto non va neppure dimenticato che i social media non sono esperienze isolate ma si inscrivono in una cultura, in particolare quella occidentale, che è stata considerata da molti come una cultura narcisistica a tutti gli effetti (Lasch 2020). I social media prima ancora che eventuale causa di investimento narcisistico sono a loro volta frutto di una cultura narcisistica.

Tratto dal libro più sopra citato

Efficace il riferimento alle carezze transazionali

 

 


  • Notizie

  • Badge Recenti

    • Badge del Vinile Arancio
      music.bw805
      music.bw805 ha ottenuto un badge
      Badge del Vinile Arancio
    • Contenuti Utili
      Eiji
      Eiji ha ottenuto un badge
      Contenuti Utili
    • Reputazione
      Ultima Legione @
      Ultima Legione @ ha ottenuto un badge
      Reputazione
    • Contenuti Utili
      Capotasto
      Capotasto ha ottenuto un badge
      Contenuti Utili
    • Contenuti Utili
      fabio76
      fabio76 ha ottenuto un badge
      Contenuti Utili
×
×
  • Crea Nuovo...