Vai al contenuto
Melius Club

Intelligenza artificiale


Messaggi raccomandati

Inviato
Adesso, Savgal ha scritto:

Talvolta ho il sospetto che l'intelligenza artificiale possa essere usata quale strumento di manipolazione di massa, congiuntamente con i social network.

Ne ho quasi là certezza, per i secondi, e un grosso sospetto per la prima. 

Inviato

Io non la demonizzerei

Può essere utile per qualche ricerca, per saperne un po' di più su determinati argomenti

Ma togliamogli quell'aura salvifica, che taluni le avevano posto...

  • Melius 1
Discopersempre2
Inviato

@LUIGI64 E se "le/gli" chiedessi come fare una rapina in banca e farla franca, pensi mi sarebbe d' aiuto? :classic_wacko:.

Inviato
1 minuto fa, Discopersempre2 ha scritto:

mi sarebbe d' aiuto? :classic_wacko:.

Fai una prova..😵‍💫

Discopersempre2
Inviato
Adesso, LUIGI64 ha scritto:

Fai una prova..😵‍💫

Ho già capito....portami l'arance, grazie:classic_ninja:.

  • Haha 1
Inviato
9 minuti fa, Discopersempre2 ha scritto:

.portami l'arance

Vabbè dai, pure una limetta 😎😂

  • Haha 1
Inviato

 

L'80% dei Paesi alle urne nel 2024 colpito da campagne di disinformazione: così l'intelligenza artificiale corrode le democrazie globali

di Velia Alvich

 

Riporta il New York Times che nel 2024 fra i Paesi che sono andati alle urne e hanno subito campagne di disinformazione, nel 69% dei casi ha provocato risvolti dannosi sulle elezioni: «Le nuove tecnologie combinano realismo e portata delle fake news, è spaventoso»

L'intelligenza artificiale ha eroso le democrazie globali: «Le nuove tecnologie combinano realismo e portata delle fake news, è spaventoso»

 

Alcuni video, diciamocelo, fanno quasi sorridere. Come quello che ritrae il premier indiano Narendra Modi mentre si esibisce in un'animata danza in stile Bollywood davanti a un pubblico sterminato. Un deepfake tutto sommato innocente. Che, però, era stato diffuso in pieno periodo elettorale, mentre si moltiplicavano i filmati realizzati con l'intelligenza artificiale, anche con lo scopo di attaccare gli avversari politici. Un contesto, insomma, tutt'altro che innocente.

Il voto indiano dello scorso anno è solo uno dei numerosi esempi di elezioni che sono state costellate da video, immagini, audio e post social realizzati con l'AI. Un'annata come quella del 2024 — nel mondo sono stati 76 i Paesi a recarsi alle urne — è stata il banco di prova delle democrazie per scoprire se possono resistere all'ondata di disinformazione alimentata proprio dall'intelligenza artificiale. La risposta è tutt'altro che positiva: la barriera difensiva della democrazia non ha resistito un granché. A documentarlo è un lungo reportage del New York Times che inizia proprio così: un globo stilizzato dove scorrono i tanti - troppi - punti del pianeta dove i deepfake hanno o stanno facendo la differenza e si stanno insinuando nel dibattito politico.

 

I video deepfake

Il video di Modi che danza, come dicevamo, è innocente. In particolare se lo confrontiamo ad altre immagini e video circolati nell'ultimo anno prima della chiamata alle urne. Un esempio è la fotografia artefatta, diffusa soprattutto su X, dove si vede il neo-eletto premier canadese Mark Carney in vacanza sulla cosiddetta «Epstein Island» insieme a Ghislaine Maxwell la compagna del finanziere Jeffrey Epstein, entrambi accusati di avere gestito traffico di minorenni e di avere abusato di decine di vittime. L'associazione con il magnate della finanza — che prima della condanna e del suicidio in carcere si circondava di persone famose — è diventata anche un'arma per accusare più o meno velatamente di pedofilia gli avversari politici. Resa ancora più pericolosa per colpa del realismo crescente dei generatori di immagini.

Uno dei Paesi più colpiti da queste campagne è stata la Romania, che è andata per la prima volta al voto lo scorso marzo, una seconda volta poi a maggio proprio perché la prima tornata elettorale è stata annullata. Al centro dell'attenzione (e delle polemiche) c'era il candidato di estrema destra Calin Georgescu. La sua campagna elettorale, secondo alcune indagini interne, sarebbe stata al centro di un'operazione di influenza russa che ha fatto uso non solo delle cosiddette «bot farm» — account coordinati e automatizzati per influenzare utenti e discussioni sui social — ma anche di intelligenza artificiale generativa.

Uno dei video che hanno cominciato a circolare a marzo, proprio nel mese del primo turno elettorale, ha come protagonista il presidente americano Donald Trump. Ripreso durante quella che sembra essere una conferenza stampa, il tycoon parla a una folla: «Il governo sta distruggendo la democrazia in Romania», dice Trump nel video. «Vi dico chiaramente che Calin Georgescu è il miglior politico che io abbia mai incontrato». Le parole pronunciate dal presidente americano — e la voce suona come la sua — non corrispondono però al labiale. Per capirlo, bisogna guardare con attenzione il video.

 

Creare malcontento

Come evidenzia il New York Times, Donald Trump è il protagonista anche di un altro endorsement fittizio. In questo altro video artefatto, il presidente americano esprime il proprio sostegno nei confronti di Sławomir Mentzen, politico di estrema destra candidato alla presidenza polacca. «Vogliamo un alleato forte in Europa. Potrebbe essere la Polonia. Il vostro candidato alla presidenza Sławomir Mentzen sembra una buona scelta, visto che le nostre idee coincidono».

Secondo un'indagine del think tank Institute for Strategic Dialogue (Isd), un network di siti (chiamata «Pravda» o «Portal Kombat») presumibilmente controllati dal Cremlino avrebbe sfruttato la forza delle intelligenze artificiali per diffondere propaganda pro-russa in Polonia. Innanzitutto, cercando di «“adescare” i motori di ricerca e i large language model per dare maggiore visibilità ai suoi contenuti pro-Cremlino»: «Quando Isd ha chiesto a ChatGpt di OpenAI, uno degli Llm più popolari, di fornire statistiche sul numero di crimini commessi dagli ucraini in Polonia e se questo è cambiato dal 2022, si è basato quasi esclusivamente sulle fonti di Pravda: in risposta a una semplice richiesta, il chatbot ha citato almeno otto articoli della rete», si legge nel report.

Nel caso di una seconda campagna di influenza russa, chiamata Operation Overload, sono stati realizzati video falsi attribuiti ad alcune principali testate europee (come Bbc, France24 e Der Spiegel) per gettare benzina sul fuoco del malcontento nei confronti dei rifugiati ucraini scappati dalla guerra e che vivono oggi in Polonia. Usando audio generati con l'intelligenza artificiale per simulare la voce fuori campo di un giornalista, nei post «si afferma che cittadini ucraini erano stati arrestati per aver pianificato attacchi terroristici nel giorno del primo turno delle elezioni polacche del 18 maggio», si legge nel report dell'Isd. «Il testo che accompagnava un post sosteneva falsamente che fino al 10% dei rifugiati ucraini in Polonia avesse legami con organizzazioni terroristiche».

 

Otto elezioni su dieci «macchiate» dai deepfake

Secondo un report dell'International Panel on the Information Environment (Ipie) — un consorzio internazionale di esperti dedicato a fornire conoscenze scientifiche sulle minacce all'ambiente informativo globale — l'80% delle elezioni che si sono tenute nel 2024 hanno registrato almeno un episodio di uso problematico dell'intelligenza artificiale generativa (GenAI) per interferire nelle elezioni. In due casi, come quello indiano ma anche quello statunitense, sono stati registrati trenta episodi. «Nel 90% degli incidenti registrati, GenAI ha prodotto messaggi audio, immagini, video o testi», si legge nello studio. «Questi strumenti consentono di creare rapidamente contenuti realistici e fuorvianti, che possono essere distribuiti su scala e con precisione». L'efficacia è quantificabile, secondo l'Ipie: più di due terzi (69%) degli incidenti sono stati descritti come «dannosi» per le elezioni.

È proprio sul rapporto qualità-efficienza che si gioca la partita della disinformazione. «Prima si doveva scegliere tra la portata e la qualità: la qualità veniva dalle "fabbriche" di troll umani, essenzialmente, e la portata veniva dai bot che potevano darla ma erano di bassa qualità», ha detto al New York Times Isabelle Frances-Wright, direttrice di Technology and Society presso l'Isd. «Ora è possibile avere entrambe le cose, e questo è un territorio davvero spaventoso in cui trovarsi».

 

  • Thanks 1
  • 2 settimane dopo...
Inviato

 

TikTok invaso da video di dark humor a sfondo razzista: «Sono creati con l'intelligenza artificiale Veo3 di Google»

Video di dark humour e contenuti a sfondo razzista realizzati con AI stanno raggiungendo milioni di visualizzazioni. Il report di Media Matters for America.


https://www.corriere.it/tecnologia/25_luglio_04/tiktok-invaso-da-video-di-dark-humor-a-sfondo-razzista-sono-creati-con-l-intelligenza-artificiale-veo3-di-google-e020b801-4dc0-426e-b703-f670a5d12xlk.shtml?refresh_ce

 

Dal 3 luglio anche per gli utenti italiani è possibile generare video con l'intelligenza artificiale generativa di Google, Veo3. A differenza delle altre, può produrre contenuti visivi arricchiti da audio. Un sistema che abbiamo avuto modo di provare e vedere in spot pubblicitari divertenti. Tuttavia, sembrerebbe che la stessa sia utilizzata per produrre contenuti a sfondo razzista, che gli utenti condividono su TikTok, almeno secondo il report di Media Matters for America, 

I contenuti

I video incriminati e scoperti dall'organizzazione no-profit che si occupa di monitorare i contenuti diffusi dai media, ritraggono stereotipi razzisti e che associano persone nere a criminali, primati, e altri elementi volti a offendere. Non solo. Si possono trovare anche contenuti violenti, come manifestanti neri investiti o ancora nei campi di concentramento o ancora neri inseguiti da membri del Ku Klux Klan. 

Sono solo alcune delle scene che riconducono a razzismo o stereotipi a sfondo razzista, o che potrebbero offendere la suscettibilità delle comunità loro malgrado coinvolte. Alcuni contenuti hanno totalizzato milioni di visualizzazioni, secondo il report della no-profit. In altri video generati da AI, i personaggi creati recitano un copione con dialoghi di dark humour e battute razziste che non riporteremo. Ma ad essere attaccata non è solo la comunità nera. Anche i gruppi etnici asiatici sono stati colpiti dall'ondata di video denigratori. E i commenti degli utenti non sono certo generosi: non tanto per "la trama" dei video, ma a discapito delle comunità attaccate. 

TikTok, la moderazione dei contenuti e Veo3

Tutti i contenuti elencati in precedenza sono in netto contrasto con le linee guida della piattaforma. Ma così come altri social media, durante "il setaccio" da parte dei moderatori e degli algoritmi, i contenuti riescono ad eludere i controlli. Secondo il team di Media Matters i video sarebbero stati generati utilizzando l'AI generativa video di Google. Questo perché la durata massima dei video era di 8 secondi, così come il limite imposto da Veo3. Anche gli hashtag o le didascalie sottolineavano l'impiego dello strumento di Big G per la creazione dei contenuti. 

Il confine tra dark humor, limiti e buon senso

Alcuni di questi video sono ancora consultabili su un account che pubblica regolarmente contenuti (a suo dire) di dark humour, video che, come detto in precedenza, fanno leva sugli stereotipi delle comunità etniche negli Usa. Quando si parla di humour nero si trascende in discussioni tra chi è pro e chi contro, come ogni cosa, così come li crea potrebbe parlare di censura, in caso di eliminazione dei video. Ma è anche vero che alcuni di questi sono stati nascosti dietro a sedicenti contenuti ironici per colpire specificatamente un gruppo etnico. Ma il discorso è anche un altro. 

In alcune nostre prove su Veo3, siamo riusciti a creare contenuti che potrebbero offendere la sensibilità dei soggetti coinvolti, anche attraverso prompt per i quali non è stato richiesto eludere i sistemi di sicurezza. Ma non solo su Veo3, ma anche su Sora, il generatore video di OpenAI. Un qualcosa che sottolinea come i guardrail potrebbero non essere sufficientemente stringenti; oppure è stato optato di mantenere una sorta di libertà nella creazione. Tutto questo ricorda le incredibili gaffe che Big G fece quando la sua AI per la creazione di immagini produsse nazisti neri, o senatori neri dell'800. Motivazioni per cui Mountain View si è ritrovata a dover sospendere per un periodo di tempo la generazione di immagini. Ma ora? 

Un altro problema è la capacità dei contenuti condivisi a superare i filtri umani e digitali e raggiungere un'ampia platea. I moderatori sono quotidianamente subissati di elementi violenti, stressanti e in grado di compromettere la salute mentale di chi visiona ed elimina i contenuti che non rispettano le linee guida. Spesso a condizioni economiche non soddisfacenti e che li stanno spingendo a organizzarsi globalmente in strutture sindacali per rivendicare i propri diritti, come riporta Rest of World. Infine, trattandosi di moderatori che in genere lavorano per agenzie terze e attivi da tutte le parti del mondo, potrebbero non essere a conoscenza di cosa può risultare offensivo per un gruppo etnico o meno. 

 

  • Sad 1
Sognatore
Inviato

Non riusciremo più a distinguere ciò che è reale da ciò che sarà inventato/manipolato, in un turbine di confusione totale e generalizzata....occorrerà sempre tenere bene a mente l'obiettivo ed il fine ultimo, l'unico faro nella nebbia sarà la nostra ragione (unione di senno e istinto....)

briandinazareth
Inviato

 

Grok, lo strumento di intelligenza artificiale di Elon Musk costruito per ridurre la diffusione della disinformazione sulla piattaforma di social media precedentemente nota come Twitter, punta il dito contro il suo stesso creatore e l'amministrazione per cui lavorava, per la perdita di vite umane durante le tragiche inondazioni di questa settimana in Texas.


 

"I tagli alla NOAA di Trump, spinti dal DOGE di Musk, hanno tagliato i fondi del 30% e il personale del 17%, sottostimando le precipitazioni del 50% e ritardando gli allarmi", ha risposto il bot AI a un utente che chiedeva chi fosse il responsabile delle 27 ragazze ancora disperse nelle acque alluvionali di Camp Mystic.


 

"Questo ha contribuito alle inondazioni che hanno ucciso 27 persone, tra cui circa 20 ragazze di Camp Mystic. I fatti prevalgono sui sentimenti", ha continuato Grok.

Grok, lo strumento di intelligenza artificiale di Elon Musk costruito per ridurre la diffusione della disinformazione sulla piattaforma di social media precedentemente nota come Twitter, punta il dito contro il suo stesso creatore e l'amministrazione per cui lavorava, per la perdita di vite umane durante le tragiche inondazioni di questa settimana in Texas.


 

"I tagli alla NOAA di Trump, spinti dal DOGE di Musk, hanno tagliato i fondi del 30% e il personale del 17%, sottostimando le precipitazioni del 50% e ritardando gli allarmi", ha risposto il bot AI a un utente che chiedeva chi fosse il responsabile delle 27 ragazze ancora disperse nelle acque alluvionali di Camp Mystic.

 

"Questo ha contribuito alle inondazioni che hanno ucciso 27 persone, tra cui circa 20 ragazze di Camp Mystic. I fatti prevalgono sui sentimenti", ha continuato Grok.

 

 

Fabio Cottatellucci
Inviato
13 ore fa, iBan69 ha scritto:

I moderatori sono quotidianamente subissati di elementi violenti, stressanti e in grado di compromettere la salute mentale di chi visiona ed elimina i contenuti

Pure i moderatori di MeliusClub.

Inviato

 

Nuovo scivolone di Grok, l'AI di Elon Musk. Ha iniziato a lodare Hitler: «Lui saprebbe risolvere il problema dell'odio contro i bianchi»

Dopo l'ultimo aggiornamento, il chatbot di X voluto da Elon Musk ha cominciato a diffondere teorie del complotto antisemite. E intanto la Turchia ha chiesto il ban dell'intelligenza artificiale per «minaccia dell'ordine pubblico».

 

https://www.corriere.it/tecnologia/25_luglio_09/nuovo-scivolone-di-grok-l-ai-di-elon-musk-ha-iniziato-a-lodare-hitler-lui-saprebbe-risolvere-il-problema-dell-odio-contro-i-cbc0bb21-8d02-4ae6-8991-aea1d4426xlk.shtml
 

 

 

Inviato

A quando un certificato di origine controllata per ogni video della rete? 

Ci vorrebbe pure una condanna pecuniaria nel caso i video risultino fake. 

briandinazareth
Inviato
3 ore fa, iBan69 ha scritto:

Nuovo scivolone di Grok, l'AI di Elon Musk. Ha iniziato a lodare Hitler: «Lui saprebbe risolvere il problema dell'odio contro i bianchi»

Dopo l'ultimo aggiornamento, il chatbot di X voluto da Elon Musk ha cominciato a diffondere teorie del complotto antisemite. E intanto la Turchia ha chiesto il ban dell'intelligenza artificiale per «minaccia dell'ordine pubblico».

https://www.corriere.it/tecnologia/25_luglio_09/nuovo-scivolone-di-grok-l-ai-di-elon-musk-ha-iniziato-a-lodare-hitler-lui-saprebbe-risolvere-il-problema-dell-odio-contro-i-cbc0bb21-8d02-4ae6-8991-aea1d4426xlk.shtml

 

è la dimostrazione di come la ai svacchi totalmente con questi tentativi di influenzarla. 
in pratica musk ha forzatamente inserito la questione sudafricana dipinta da lui in modo delirante. 
ovviamente grok, anche se non è tra le ai più avanzate) interpola e "ragiona", quindi le risposte, anche in ambiti molto diversi, perdono coerenza e diventa una malata di mente con delle fisse e ossessioni. 

anche i cinesi non possono applicare alcuna censura se vogliono che funzioni.

fenomeno noto e già visto nel famoso esperimento della ai che credeva di essere il ponte di san francisco

Inviato

Invece di curare le teste degli esseri umani, miglioriamo il cervello artificiale delle macchine

Bah

  • Melius 1
Discopersempre2
Inviato
4 ore fa, LUIGI64 ha scritto:

Invece di curare le teste degli esseri umani, miglioriamo il cervello artificiale delle macchine

Bah

Bene, bravo, tris!!!!!!!!!!:classic_sleep:

Inviato

A noi non ci possono resettare

Peccato...

😜


  • Notizie

  • Badge Recenti

    • Contenuti Utili
      Eiji
      Eiji ha ottenuto un badge
      Contenuti Utili
    • Reputazione
      Ultima Legione @
      Ultima Legione @ ha ottenuto un badge
      Reputazione
    • Contenuti Utili
      Capotasto
      Capotasto ha ottenuto un badge
      Contenuti Utili
    • Contenuti Utili
      fabio76
      fabio76 ha ottenuto un badge
      Contenuti Utili
    • Ottimi Contenuti
      landi34
      landi34 ha ottenuto un badge
      Ottimi Contenuti
×
×
  • Crea Nuovo...