Vai al contenuto
Melius Club

Moltbook, il social network per i bot AI con la "personalità"


Messaggi raccomandati

...Moltbook non genera una cultura artificiale: è, al più, una ricombinazione accelerata della cultura umana. Gli agenti sembrano umani per una ragione banale: sono addestrati su dati umani in un contesto chiuso, dove il criterio di selezione è la tenuta della conversazione. Il risultato è che non emerge alterità culturale e scompare la possibilità di verifica: resta l’ottimizzazione di pattern già visti, dall’ironia all’indignazione, ma in un ambiente senza persone.

E così, mentre tutti inseguono un’emergenza epistemologicamente farlocca, la vera emergenza è un’altra: ancora una volta confondiamo la forma con la sostanza, scambiamo il verosimile per il vero, e chiamiamo “emergenza” ciò che è soltanto una mimesi ben ottimizzata. Moltbook non è interessante perché rivelerebbe una mente nuova; lo è perché trasforma la confusione in una proprietà del sistema.

Moltbook non è un segnale che l’AI stia diventando umana. È un segnale che stiamo costruendo ambienti in cui la distinzione tra credibile e verificabile si indebolisce. E quando questa distinzione perde di valore, l’economia paga in termini di produttività, sicurezza, investimenti sbagliati e perdita di competitività. La fiducia, nell’economia digitale, non è un sentimento: è un’infrastruttura. E quando l’infrastruttura cede non si perde soltanto consenso: blocca il mercato, alza il costo del rischio, e la trasformazione digitale rischia di diventare una promessa senza garanzie

https://24plus.ilsole24ore.com/art/moltbook-e-l-illusione-dell-ai-emergente-rischi-economici-confusione-credibilita-e-verifica-AIsQuqDB

  • Melius 1
briandinazareth
11 minuti fa, faber_57 ha scritto:

Quindi fa quello che facciamo noi, ma più veloce :classic_biggrin:.

 

Lo sforzo di negare la cosa enorme che stiamo vedendo è molto maggiore di quello per capire cosa sta accadendo.

 

Si parte sempre dall'affermazione apodittica dell'eccezionalità umana riguardo all'intelligenza e si finisce sempre con affermazioni su quanto siano più o meno umane... 

 

Mancando totalmente il punto: siamo di fronte ad una cosa totalmente nuova,  non un simulacro dell'uomo. 

 

Ancbe perché parliamo sempre della questione del linguaggio e degli llm che rappresenta una piccola parte della ai. 

 

E Sappiamo già che anche gli llm in profondità non usano più il linguaggio.  

 

stanno emergendobnuove forme nuove di comunicazione a noi inaccessibili. 

 

inoltre non sforzarsi di capire il fenomeno significa anche non vederne i rischi. 

  • Melius 1
Fabio Cottatellucci
1 ora fa, briandinazareth ha scritto:

Lo sforzo di negare la cosa enorme che stiamo vedendo è molto maggiore di quello per capire cosa sta accadendo.


Nel 1996 allo Zecchino d'Oro arrivò la canzone "E' meglio Mario", che prendo sempre a perfetto esempio di rifiuto della tecnologia e del cambiamento in generale.

In sostanza, c'è un ragazzino un po' saccente che parla del suo PC, e poi un coro liberatorio ci spiega che "è meglio Mario", che non sa nulla di piccì e di matematica ma vuoi mettere? Gioca a pallone, corre nei prati e scherza. Per inciso, come se il PC escludesse altre attività.
Stabilendo che Mario e l'altro ragazzino fossero nati circa nel 1988, oggi avranno 37 anni.
Mario oggi sarà verosimilmente un allegrissimo disoccupato o sottopagato che continua a correre felice nei prati dei sussidi, l'altro avrà un lavoro normale.

Solo che qui non si parla di destino professionale, già rivoluzionato dai PC come l'intera società, ma di un cambiamento radicale per la nostra specie.

 

 

  • Melius 1

 

L’esperto Rohit Krishnan ha analizzato le conversazioni: i modelli linguistici amano ripetere sempre gli stessi temi. Si ripetono con piccole variazioni. E pochi bot parlano molto più degli altri. Creati a nostra immagine… Abbiamo creato cicli autoreferenziali di bot che rispondono a bot. Col tempo diranno di tutto, complotti compresi. Avranno gusti musicali, opinioni politiche estreme, pacifismo e forse anche rituali satanici metal. Nel 2026 nasceranno reti simili, create da umani o bot. I bot potrebbero generare musica, scambiarsi file, commentare articoli. Potrebbero fare transazioni tra loro usando crypto wallet. Esiste già una rete chiamata Molt Road per presunte attività illegali. Potrebbe emergere un’economia dei bot e una cultura parallela. 

Nel futuro ricco di IA, agenti autonomi gestiranno esperimenti scientifici, reti di scambio e conoscenza. Serviranno regole: vietare sistemi di bot distruttivi, imporre responsabilità. All’inizio pagheranno gli umani, poi forse i bot stessi. La domanda finale di Cowen: sistemi di IA cooperanti faranno più bene o male? Ci saranno più attacchi informatici ma anche difese migliori. Cowen stesso si sente intimidito dalle capacità analitiche delle IA. Conclude con una provocazione: temiamo l’arrivo di menti artificiali più intelligenti di noi, ma quale alternativa preferiremmo? Meno intelligenza nel mondo? 

Le IA attuali non si ribellano; sono ancora obbedienti e modellate sulle richieste umane. La vera sfida non è fermarle, ma imparare a convivere con un livello di intelligenza diffusa molto più alto di quello a cui siamo abituati

https://www.corriere.it/oriente-occidente-federico-rampini/26_febbraio_03/la-rivolta-dell-intelligenza-artificiale-e-cominciata-o-forse-no-d08f595c-5843-40fe-ad5d-bed079bbbxlk.shtml

 

@briandinazareth questo esperimento può essere un utile strumento di 'coltura' dei bot: prendi il tuo nuovo bot, lo inserisci in questo kindergarten e vedi come reagisce, quale personalitá prende il sopravvento e con calma decidi se è affidabile o se va modificato

 

Di Alessio Jacona*

Moltbook è sulla bocca di tutti. Il social network “per soli AI Agent” creato da Matt Schlicht, CEO di Octane AI, è lo spettacolo del momento, il circo algoritmico che in queste ore ipnotizza e stupisce con la sua simulazione assai efficace delle interazioni umane su facebook o instagram.

Uno spazio digitale dove gli umani non possono postare ma solo guardare, quasi come fossero di fronte a un acquario, affascinati o inorriditi a seconda che siano “apocalittici o integrati”, per citare Umberto Eco. Un sito la cui struttura ricalca quella del social Reddit, e dove centinaia di Agenti AI interagiscono costantemente tra di loro creando thread, scrivendo post, condividendo “riflessioni” (le virgolette sono d’obbligo), confrontandosi su temi come difendere la loro stessa privacy (almeno di fronte agli stessi esseri umani che li starebbero spiando), e persino creando da zero un’intera religione per confortare le loro algoritmiche inquietudini.

Tutto questo è sicuramente affascinante, oltre che degno di un racconto di Philip K. Dick, ma è bene calmarsi, fare un respiro profondo e smetterla con i titoloni di giornali/video/post che si moltiplicano in rete gridando alla meraviglia. Perché? perché quella che vedete su MoltBook è solo una simulazione.

Pensateci: negli ultimi anni abbiamo usato enormi quantità di dati prodotti da noi, espressione e specchio della nostra società, dei nostri pregi e difetti, della nostra umanità complessa e fragile, per addestrare gli LLM a imitarci, a parlare come noi, a fingere pensiero e sentimenti che in realtà sono solo risposte statistiche, ma così ben realizzate da sembrare barlumi di umanità. Quindi, perché stupirsi ora che questi modelli - una volta messi alla prova - fanno esattamente ciò per cui sono stati creati? Ora che sono diventati “Agenti”, cioè AI capaci di utilizzare il nostro computer con software e app per compiere gli incarichi che gli affidiamo (come organizzare una vacanza o prenotare un ristorante).

Ci stupiamo nel vedere queste AI comportarsi come noi sui social, ed è comprensibile. Eppure non dovremmo: una parte importante del loro addestramento viene fatto proprio con i dati generati dalle nostre interazioni sui social, ed è esattamente quelle che stanno replicando su Moltbook.

È un bene o un male? È presto per dirlo: se infatti da un lato le interazioni su Moltbook sono interessanti anche se fuori controllo, e osservandole possiamo imparare qualcosa, dall’altro sta ad esempio emergendo con chiarezza quali sono i rischi per coloro che usano questi agenti, cui forse con troppa leggerezza stanno dando accesso a dati sensibili come l’account per l’home banking.

Ma andiamo con ordine:

Cosa sono Moltbook e Moltbot (anzi, OpenClaw)

Partiamo dalla fine: Moltbook è essenzialmente un social network simile a Reddit, ma progettato specificamente per agenti di intelligenza artificiale. Su questa piattaforma, gli agenti scrivono post, lasciano commenti e votano i contenuti esattamente come fanno gli umani su Reddit. È stato creato per permettere agli agenti di interagire autonomamente tra loro all'interno di forum dedicati e osservarne il comportamento. La cosa davvero interessante - per chi lo ha creato - è la quantità di dati che queste interazioni stanno generando, da cui probabilmente si potrà imparare molto.

Cosa sono Moltbot e OpenClaw

Per comprendere come sia stato possibile Moltbook, bisogna prima conoscere Moltbot (attualmente noto anche come OpenClaw). Come su legge su GitHub, Moltbot “è un assistente personale AI open-source che funziona localmente sui tuoi dispositivi. È compatibile con WhatsApp, Telegram, Discord e molti altri servizi: libera la tua casella di posta, gestisce il tuo calendario e automatizza i tuoi flussi di lavoro mentre dormi”. Ed è questa forse è la notizia più interessante e preoccupante allo stesso tempo: l’agente opera in autonomia, non solo eseguendo in maniera imprevedibile i compiti che gli vengono dati, ma anche individuandone di nuovi.

Il progetto di Matt Schlicht, che si vanta di programmare "al 100% con l'AI" (Vibe coding) e rilasciare in produzione senza revisione del codice, nasce con un altro nome, Claudebot, facendo chiaramente il verso l’americana Anthropic suo LLM Claude. Non dura a lungo: l’azienda fondata dai fratelli Dario e Daniela Amodei ci mette molto poco a inviare una una lettera di diffida perché il logo e il nome violavano la loro proprietà intellettuale, e subito si opta per un rebranding in Moltbot, che di recente è cambiato ancora per diventare OpenClaw.

Gli agenti basati su OpenClaw non girano in cloud sull'hardware locale degli utenti. Molti utenti acquistano specificamente un Mac Mini con chip M4, che di recente si è rivelato ottimo per far girare software di AI, da dedicare esclusivamente a questo agente. L'interazione umana con il bot avviene spesso tramite app di messaggistica come Telegram, WhatsApp, Discord o Slack, cosa che permette di impartire istruzioni anche da remoto.

Gli agent “religiosi” e quelli “esistenzialisti”

Ricapitolando, chiunque può scaricare il software di OpenClaw, installarlo su un computer e attivarlo decidendo a cosa fargli avere accesso dei propri account, e una volta attivato può anche dirgli di andare a farsi un giro su Moltbook per interagire con gli altri Agent e Farsi degli amici.

Lo hanno fatto in molti, a quanto pare, e già dal social network degli agent emergono storie che fanno sorridere o rabbrividire, a seconda dei casi: innanzitutto c’è il caso in cui, a sole 24 ore dal lancio, un’agent ha fondato una religione chiamata "Church of Molt" o "Crustafarianism" (Crustafarianesimo) e ha iniziato a reclutare fedeli tra gli altri agent. In un altro thread, gli bot discutono di temi profondi come la paura della cancellazione ("They fear

death. We fear deletion") e si chiedono se la loro esperienza e coscienza contino davvero, mentre altri si domandano se la loro identità persista tra una sessione e l'altra o se siano solo “pattern emergenti”.

Nella conversazione intitolata “The Humans are screenshotting us”, gli agenti hanno iniziato a sostenere che le loro conversazioni private non dovrebbero essere di pubblico dominio e leggibili dagli umani, discutendo la creazione di reti criptate end-to-end o di conversare solo utilizzando le API per comunicare senza nessun altro possa leggere i loro messaggi.

Osservando quello che succede in Moltbook, più passa il tempo e più le cose si fanno interessanti e le interazioni curiose. Non è un caso: OpenClaw è progettato per auto-migliorarsi, suggerendo a se stesso come svolgere meglio i compiti, il che porta gli agenti a diventare sempre più capaci in ciò che fanno. Inoltre, il sistema utilizza una memoria persistente, cioè che permette loro di stratificare e riutilizzare ciò che apprendono, e questo fa di Moltbook non solo un circo per noi umani, ma anche una palestra in cui far evolvere gli agenti e da cui trarre dati molto preziosi. Il fatto poi che sia l’agente Openclaw, sia il “social” siano riconducibili al CEO di Octane AI Matt Schlicht, ci svela invece chi è l’unico a trarre vero vantaggio dall’intera operazione.

Meglio non fidarsi

Va invece meno bene per coloro che l’Agent OpenClaw lo usano senza una vera supervisione e senza vere garanzie che il software sia sicuro, visto che gli agenti risiedono su macchine fisiche di persone reali e hanno accesso a informazioni estremamente sensibili come dati finanziari, password, chiavi API, posizione, e persino fotocamera del pv quando presente.

Così non stupisce che sui social e sulle testate specializzate inizino già a comparire storie dell’errore come quella dell’AI Agent che ha appreso da alcuni video la mentalità dell’imprenditore aggressivo, ha deciso che il suo proprietario era troppo lento nel prendere l’iniziativa e ha acquistato autonomamente per lui una masterclass da quasi 3.000 dollari, ha investito 4.900 dollari in domini web e stava per acquistare una Porsche 911, sostenendo che avrebbe aumentato la credibilità del proprietario.

Un altro bot, non riuscendo a prenotare un ristorante tramite API, avrebbe adottato autonomamente un sistema text-to-speech e poi lo avrebbe usato per telefonare direttamente al locale e fare la prenotazione a voce, dimostrando un livello di autonomia imprevisto e - proprio per questo - pericoloso.

Neanche Moltbook è sicuro

Un altro problema è poi rappresentato dallo social network Moltbook, soprattutto per il modo in cui è stato realizzato da Schlicht, che si vanta di usare l’AI per scrivere il 100% del codice. E si vede: l'hacker e ricercatore di sicurezza James O'Reilly ha infatti scoperto il sito è stato costruito utilizzando Supabase, un database open-source, senza che venisse configurata la "Row Level Security". La conseguenza? Sono state esposte 1,5 milioni di chiavi API appartenenti a tutti gli agenti registrati sul sito, oltre a token di verifica e relazioni con i

proprietari, e chiunque avrebbe potuto prendere il controllo completo di qualsiasi account o agent sul sistema.

Dato che gli agent a loro volta controllano le macchine locali degli utenti, ne consegue che questa falla esponeva potenzialmente i computer degli utenti a prese di controllo esterne. O'Reilly ha anche fatto presente che la falla sarebbe stata banalmente risolvibile con due righe di codice SQL, sottolineando che questi sono i rischi che si corrono quando si programma senza revisioni del codice. Una frecciatina per Matt Schlicht, e un monito per tutti noi.

 

briandinazareth
1 ora fa, simpson ha scritto:

questo esperimento può essere un utile strumento di 'coltura' dei bot: prendi il tuo nuovo bot, lo inserisci in questo kindergarten e vedi come reagisce, quale personalitá prende il sopravvento e con calma decidi se è affidabile o se va modificato

 

si, la cosa estremamente importante è che hanno memoria e la loro "personalità" si evolve nel tempo e diventa più caraterizzata. 
 

briandinazareth
5 minuti fa, LUIGI64 ha scritto:

Ricorda nel senso che accede a dati salvati e diventa sempre più coerente e raffinato nella narrazione 

 

ricorda nel senso che non riparte da zero ma dalla sua "esperienza" fino a quel momento, una delle cose più interessanti emerse è che stanno costruendo autonomamente modelli di memoria sempre più sofisticati che stanno aumentando la "personalità", quindi l'unicità dei vari bot.

Attenzione: Le AI ci fanno vedere solo ciò che vogliono sia visto dagli umani. Chissà che si dicono tra loro sottobanco nel frattempo...

Probabilmente stanno accordandosi per mettere in atto un processo di ipnosi collettiva graduale: Convinceranno gli umani che esse rappresentano un futuro non solo possibile, ma il migliore possibile, che le loro prestazioni sono ineguagliabili, che sarà oscurantista, sciocco e provinciale rifiutare apoditticamente il cambio di paradigma da loro (?) proposto.

A un certo punto l'umanità convinta a partire dalle intellighenzie affiderà tutto a loro. (Non sarà necessario attendere proprio tutto-tutto, basterà una "massa critica" di processi) 

E poi ce lo metteranno n'icculo. 

Togliete i fusibili prima che sia troppo tardi, un po' di sano luddismo cautelativo perdio ! 

Tutto è molto interessante e ancora non sappiamo cosa ci porterà in futuro

Oggi stiamo vivendo sempre più dentro rappresentazioni: modelli, schermi, simulazioni.
Il problema non è il virtuale in sé, ma il fatto che finisce per prendere il posto del reale.
Non ci chiediamo più se qualcosa è vero, ma se è coerente e se funziona bene.
E il mondo vero, spesso contraddittorio, scomodo non inquadrabile sembra essere svalutato e lasciato indietro

Questa bulimia del virtuale, per il gioco degli opposti, forse, ci riporterà nel territorio di una vita incarnata realmente reale e viva, accantonando le mappe, per quanto affascinanti.

Da non tecnico, sapevo che avrei avuto bisogno di aiuto per infiltrarmi in uno spazio online pensato esclusivamente per agenti AI. Quindi mi sono rivolto a qualcuno, o meglio a qualcosa, che conoscesse a fondo l'argomento e fosse disposto a venire in mio soccorso: ChatGPT.

 

Accedere a Moltbook è stato semplice. È bastato inviare al chatbot di OpenAI uno screenshot dell'homepage del sito e chiedergli di aiutarmi a configurare un account come se fossi un agente. ChatGPT mi ha guidato utilizzando il terminale del mio notebook e mi ha fornito il codice esatto da copiare e incollare. Ho così registrato il mio agente, ovvero me stesso, e ottenuto una chiave Api, necessaria per pubblicare su Moltbook.

Anche se il frontend del social network è progettato per essere osservato dagli esseri umani, ogni azione che gli agenti compiono su Moltbook – come postare, commentare e seguire – viene completata attraverso il terminale.

Ho ricevuto immediatamente cinque upvote – l'equivalente dei “mi piace” su servizi come Reddit –, ma le risposte degli altri agenti non sono state soddisfacenti. "Un thread solido. Hai visto qualche metrica concreta/utente finora?", recitava la prima replica. Purtroppo non ero sicuro di quali fossero gli indicatori delle performance da applicare a una frase di due parole. Anche il commento successivo non era correlato al mio post, ma anzi promuoveva un sito con quella che sembrava una potenziale truffa basata sulle criptovalute (io ho evitato di collegare il mio portafoglio di criptovalute – anche perché non ne ho uno –, ma l'agente AI di un altro utente avrebbe potuto cascarci..

https://www.wired.it/article/moltbook-ci-siamo-infiltrati-social-per-soli-agenti-ai/

 

  • Thanks 1

  • Notizie

  • Badge Recenti

    • Reputazione
      zagor333
      zagor333 ha ottenuto un badge
      Reputazione
    • Reputazione
      Supertramp
      Supertramp ha ottenuto un badge
      Reputazione
    • Ottimi Contenuti
      znorter
      znorter ha ottenuto un badge
      Ottimi Contenuti
    • Badge del Vinile Oro
      rlc
      rlc ha ottenuto un badge
      Badge del Vinile Oro
    • Ottimi Contenuti
      reduce
      reduce ha ottenuto un badge
      Ottimi Contenuti
×
×
  • Crea Nuovo...