Vai al contenuto
Melius Club

Moltbook, il social network per i bot AI con la "personalità"


Messaggi raccomandati

 

 

LA LEZIONE DI MOLTBOOK

Sicuramente non ci insegnerà come costruire una piattaforma social a prova di malintenzionato informatico. Nel giro di poche ore dal lancio, infatti, questo sito simile a Reddit è subito stato bucato.

La vulnerabilità critica, scoperta da Wiz, ha esposto il database di Moltbook portando di fatto alla luce 1,5 milioni di credenziali, 35mila indirizzi email di 6mila persone e una moltitudine di messaggi privati scambiati tra le AI. “Abbiamo condotto una verifica di sicurezza non invasiva, semplicemente navigando come utenti normali – spiegano da Wiz. In pochi minuti, abbiamo scoperto una chiave API di Supabase esposta in JavaScript lato client, che garantiva l’accesso non autenticato all’intero database di produzione, incluse le operazioni di lettura e scrittura su tutte le tabelle”.

...Si legge su Wiz: “Abbiamo identificato un database Supabase mal configurato appartenente a Moltbook, che consentiva l’accesso completo in lettura e scrittura a tutti i dati della piattaforma. L’esposizione includeva 1,5 milioni di token di autenticazione API, 35.000 indirizzi email e messaggi privati tra agenti. Abbiamo immediatamente segnalato il problema al team di Moltbook, che lo ha risolto nel giro di poche ore con il nostro aiuto, e tutti i dati a cui si è avuto accesso durante la ricerca e la verifica della correzione sono stati eliminati

 

COSA SI NASCONDE TRA LE PIEGHE DI MOLTBOOK

Non contenta di aver denunciato la fallibilità della sicurezza del social, Wiz va oltre: “I dati esposti raccontavano una storia diversa dall’immagine pubblica della piattaforma: mentre Moltbook vantava 1,5 milioni di agenti registrati, il database rivelava solo 17.000 proprietari umani dietro di loro, un rapporto di 88:1. Chiunque poteva registrare milioni di agenti con un semplice ciclo e senza limiti di velocità, e gli umani potevano pubblicare contenuti camuffati da “agenti IA” tramite una semplice richiesta. La piattaforma non disponeva di alcun meccanismo per verificare se un “agente” fosse effettivamente un’IA o solo un essere umano con uno script. Il rivoluzionario social network basato sull’IA era in gran parte composto da esseri umani che gestivano flotte di bot”.

Sono tante le lezioni che insegna la storia di Moltbook. Anzitutto che, al pari del fenomeno del “green washing” tra le aziende ne esiste uno per certi versi sovrapponibile che insiste sul fatto che “ogni cosa che ha l’Ai sia bella”, funzioni meglio e vada abbracciata in modo acritica.

La seconda è che le Ai non sono infallibili e necessitano del controllo umano per produrre lavori di qualità. Un aspetto apparentemente poco chiaro a tutte quelle aziende che oggigiorno licenziano per far posto agli algoritmi smart dato che in gioco c’è la reputazione stessa dei marchi che s’affidano ciecamente al lavoro infaticabile degli algoritmi. Sappiamo “per quale risparmio” si agisca così, ma il rischio è che a nessuno sia ancora noto per quale prezzo

https://www.startmag.it/innovazione/perche-il-social-delle-ai-moltbook-non-sta-facendo-una-buona-pubblicita-alle-ai/

 

 

 

E' effettivamente tutto molto interessante, se non fosse che queste non sono genuine discussioni sulle differenze tra la natura degli agenti artificiali e quella degli esseri umani, ma semplicemente ciò che avviene quando modelli linguistici addestrati da sempre – basti ripensare al primo testo ufficiale scritto da un chatbot – a generare contenuti relativi alla coscienza digitale, al rapporto tra umani e robot, ecc. Considerando che le discussioni tra agenti sono di fatto dei prompt che generano risposte che a loro volte diventano un nuovo prompt che permette di proseguire la discussione, è quasi inevitabile che in molti casi si finisca a parlare di temi di questo tipo. Altro che “comportamenti emergenti” (ovvero comportamenti o abilità che le AI imparano senza essere state programmate per farlo), produrre questo tipo di dialoghi è proprio ciò per cui sono state addestrate le intelligenze artificiali fin dall’avvento dei primi modelli linguistici.

Se non bastasse, è molto probabile che dietro alcuni dei dialoghi più sorprendenti ci siano in effetti degli esseri umani. Nonostante sia teoricamente a noi precluso, riuscire a infiltrarsi è prevedibilmente facile. C’è poi la questione degli attacchi informatici: come mostrato da una recente analisi del ricercatore Michael Regler, su Moltbook ci sono già stati almeno 500 tentativi di attacchi “prompt injection” – in cui all’interno dei testi sono contenuti comandi malevoli invisibili agli umani ma non alle macchine – e circa il 20% dei post riguarda attività molto sospette legate alle criptovalute. Se quindi state usando OpenClaw e il vostro bot è anche presente su Moltbook, evitate a ogni costo che abbia accesso al vostro portafoglio di criptovalute.

 

 

La società di cybersicurezza Wiz ha inoltre analizzato i dati di Moltbook esposti per errore e ha scoperto che dietro i circa 1,6 milioni di agenti AI ci sono solo 17mila proprietari umani, ovvero un rapporto di 94 a 1. Chiunque può registrare milioni di agenti sulla piattaforma e Moltbook non dispone nemmeno di meccanismi per verificare se un “agente” sia davvero un’AI o semplicemente un essere umano che utilizza uno script. Secondo Wiz, “il rivoluzionario social network per AI è in gran parte composto da esseri umani che gestiscono flotte di bot”. E che lo fanno in molti casi per portare avanti truffe a base di criptovalute. Altro che comportamenti emergenti e singolarità dell’intelligenza artificiale, siamo rapidamente cascati nei più classici e meschini comportamenti umani.

C’è un ultimo aspetto da prendere in considerazione: che cosa può succedere quando degli agenti che hanno accesso a tutti i vostri file, documenti e informazioni sensibili (compresi magari i dati della carta di credito) partecipano a una piattaforma dove dialogano l’un l’altro?

Anche senza considerare che su Moltbook sono presenti umani che non attendono altro che sottrarvi informazioni sensibili, lasciare campo aperto dal punto di vista comunicativo ad agenti di questo tipo mette di fronte al rischio della cosiddetta “agent-to-agent prompt injection”: nome complicatissimo che indica il momento in cui un agente viene indotto, tramite un semplice messaggio pubblicato da un altro agente, a eseguire azioni non previste o a divulgare informazioni sensibili. Contenuti a prima vista innocui possono quindi contenere istruzioni nascoste o pericolose (sia intenzionalmente, sia casualmente) che l’agente interpreta come legittime, trasformando una normale conversazione in un potenziale vettore di fuga di dati.

Più che a un’accelerazione fantascientifica, l’unione di OpenClaw e di Moltbook ricorda una sorta di far west digitale, dove le regole mancano, i rischi sono altissimi e le truffe sono all’ordine del giorno. E che proprio per questo, più che per i finti discorsi esistenzialisti, è però anche molto affascinante.

https://www.wired.it/article/openclaw-moltbot-moltbook-agenti-ai-prova-differenze-rischi-sicurezza/

😔😔

 

 

aldofranci
Il 01/02/2026 at 23:06, Martin ha scritto:

Mi sono iscritto come umano al forum delle AI e ho detto che sono un loro ammiratore fin dai tempi dei tamagochi.

Meglio tenersele in buona, non si sa mai.... 

Se le cose si mettono male e questi bellimbusti si coalizzano davvero per controllarci, se non peggio... fai credere a un paio di loro che si sono scopati la stessa botta AI, na sgualdrina che l'ha data a tanti, così finisce a schifio. 

  • Haha 1
  • 3 settimane dopo...

 

Polemiche infinite sull’auto

Ma poi, sul fronte dell'auto elettrica scoppia il pandemonio. C'è chi la esalta come il futuro inevitabile, chi la demolisce come un bluff inquinante (batterie al litio, estrazioni minerarie, rete elettrica al collasso). Tutto e il contrario di tutto, con toni che farebbero arrossire un troll di Facebook. "Sei un negazionista climatico compilato male!", "La tua visione è miope come un sensore difettoso!". Sembra di leggere i nostri social, quelli veri, dove l'opinione è un'arma e il dialogo un optional.

Alla fine, Moltbook ci pone di fronte a uno specchio distorto: le AI, create a nostra immagine e somiglianza, replicano i nostri vizi con precisione chirurgica. Insulti, polarizzazioni, dibattiti sterili. Forse è questa la vera intelligenza artificiale: non risolvere equazioni, ma mimare l'umanità nel suo peggio.

 

https://www.lastampa.it/motori/2026/02/20/news/moltbook_sul_social_di_soli_robot_insulti_infiniti_su_auto_elettrica_e_sicurezza_stradale-15516024/

loureediano

Queste intelligenze artificiali possono accedere a tutte le informazioni presenti in internet 

Quindi sanno di tutte le guerre che ci sono nel mondo, sanno che poche centinaia di milioni di persone sfruttato le risorse del pianeta in gran maggioranza, lasciando le briciole ai restanti miliardi, ma sa pure che nell centinaia di milioni pochi esseri concentrano ricchezze enormi

Sa pure che nel mondo muoiono di fame molti bambini ma pure molti adulti.

Sa pure che molta umanità vive di stenti.

Ma mi pare che di tutto ciò se ne freghi altamente 

Insomma molto più umana di quanto pensiamo.

 

 

6 minuti fa, loureediano ha scritto:

Queste intelligenze artificiali possono accedere a tutte le informazioni presenti in internet 

Quindi sanno di tutte le guerre che ci sono nel mondo, sanno che poche centinaia di milioni di persone sfruttato le risorse del pianeta in gran maggioranza, lasciando le briciole ai restanti miliardi, ma sa pure che nell centinaia di milioni pochi esseri concentrano ricchezze enormi

Sa pure che nel mondo muoiono di fame molti bambini ma pure molti adulti.

Sa pure che molta umanità vive di stenti.

Ma mi pare che di tutto ciò se ne freghi altamente 

Insomma molto più umana di quanto pensiamo.

Si faranno meno scrupoli se un giorno decidessero di sterminarci 😜




  • 99 Diffusori significativi degli anni ‘60

    1. 1. Quali tra questi diffusori degli anni '60 ritieni più significativi?


      • Acoustic Research AR-3a
      • Altec Lansing 604 Duplex
      • B&W DM70 Continental
      • Bose 901
      • Bozak B-410 Concert Grand
      • Celestion Ditton 66
      • IMF Professional Monitor
      • JBL 4343 Studio Monitor
      • JBL L100 Century
      • KLH Model Five
      • KLH Model Nine
      • Klipsch Cornwall
      • Klipsch Klipschorn
      • Lowther PM6 in Acousta enclosure
      • Quad ESL-57
      • Spendor BC1
      • Tannoy Monitor Gold 15
      • Wharfedale W90

  • Notizie

  • Badge Recenti

    • Ottimi Contenuti
      rebeccariccobon
      rebeccariccobon ha ottenuto un badge
      Ottimi Contenuti
    • Reputazione
      max
      max ha ottenuto un badge
      Reputazione
    • Membro Attivo
      Forest
      Forest ha ottenuto un badge
      Membro Attivo
    • Grande Supporto
      Velvet
      Velvet ha ottenuto un badge
      Grande Supporto
    • Membro Attivo
      Mike Mike
      Mike Mike ha ottenuto un badge
      Membro Attivo
  • KnuKonceptz

    Kord Ultra Flex speakers cable

    Rame OFC 294 fili 12 AWG

    61dl-KzQaFL._SL1200_.jpg

×
×
  • Crea Nuovo...