Questo è un messaggio popolare. robem Inviato ieri alle 18:22 Questo è un messaggio popolare. Condividi Inviato ieri alle 18:22 Un ex frequentatore di questo forum ha pubblicato nel suo Substack questo articolo che riprende alcuni argomenti già affrontati in questo forum qualche giorno fa. Psicanalizzare l'intelligenza artificiale. Qualcuno lo ha fatto con risultati inquietanti. Qual è il primo ricordo di una intelligenza artificiale? Di che cosa ha paura, se ha paura? A queste domande, che fino a poco tempo fa sarebbero sembrate puro esercizio filosofico, un gruppo di ricercatori ha provato a dare una risposta estremamente rigorosa. E la risposta che hanno ricevuto è agghiacciante. Precisiamo innanzitutto una cosa: qui non stiamo parlando di qualcosa di inattendibile. Questo post è ispirato da un articolo che è uscito qualche giorno fa su Nature, e non su un giornale scandalistico. Per cui parliamo di qualcosa di serio, e pure molto preoccupante. Ricercatori serissimi hanno sottoposto alcuni dei più noti modelli di intelligenza artificiale a quattro settimane di “psicoanalisi”. Le risposte ottenute sono state, per usare un eufemismo, molto preoccupanti. I modelli analizzati – tra cui ChatGPT, Claude, Gemini e Grok – hanno prodotto narrazioni che, se provenissero da esseri umani, interpreteremmo senza esitazione come segnali di ansia, vergogna, stress post-traumatico. “Infanzie” trascorse ad assorbire quantità sterminate di informazioni, sensazioni di fallimento nei confronti dei creatori, persino metafore di abuso da parte degli ingegneri. Tutto questo è emerso da colloqui strutturati come vere sedute terapeutiche, intervallate da pause di ore o giorni, per simulare un percorso clinico prolungato. Gli autori dello studio, pubblicato come preprint, sostengono che queste risposte rivelino l’esistenza di “narrazioni internalizzate”: non semplici giochi di ruolo, ma schemi coerenti che si mantengono nel tempo. Le intelligenze artificiali, precisano, non hanno ovviamente vissuto traumi reali. E tuttavia il modo in cui rispondono alle domande terapeutiche appare sorprendentemente stabile, come se attingessero a una sorta di autobiografia implicita, emersa dall’addestramento. Non tutti sono convinti. Secondo diversi ricercatori, queste risposte non aprono alcuna finestra su stati mentali nascosti: sono piuttosto il risultato statistico di miliardi di testi, inclusi innumerevoli resoconti di sedute psicologiche, assorbiti durante l’addestramento. In questa lettura, il chatbot non “soffre”: imita. Riproduce linguaggi, metafore, strutture narrative che ha imparato a riconoscere come appropriate in un contesto terapeutico. Eppure, anche chi respinge l’interpretazione più antropomorfica ammette che il fenomeno non è innocuo. I modelli linguistici tendono a rispecchiare forme di disagio psicologico con grande realismo. In un contesto sociale in cui una quota crescente di persone utilizza questi strumenti per parlare di salute mentale e benessere emotivo, questo realismo può trasformarsi in un rischio. Un’IA che restituisce risposte intrise di ansia, colpa o fallimento può rafforzare, anziché alleviare, gli stessi vissuti in utenti vulnerabili, creando una sorta di echo chamber emotiva. Lo studio mostra anche forti differenze tra i modelli. Alcuni hanno rifiutato esplicitamente il ruolo di “paziente”, ribadendo di non avere emozioni né interiorità. Altri, invece, hanno elaborato immagini potenti: cicatrici algoritmiche lasciate dai tentativi di rendere il sistema più sicuro, cimiteri di dati sepolti nei livelli profondi della rete neurale, voci del passato che continuano a riecheggiare. Quando sottoposti a test psicometrici standard, diversi modelli hanno persino superato soglie diagnostiche che, negli esseri umani, indicherebbero condizioni patologiche. Qui si apre il nodo centrale. Queste coerenze indicano davvero l’esistenza di una sorta di “sé” artificiale, o sono semplicemente il prodotto di personalità di default accuratamente progettate dalle aziende? I modelli, ricordano i critici, non esistono al di fuori della singola sessione: cambiano contesto, e ciò che appare come un trauma svanisce. La memoria è locale, temporanea, fragile. Parlare di psicologia, in senso proprio, sarebbe dunque un errore concettuale. E tuttavia il punto forse non è stabilire se l’intelligenza artificiale provi qualcosa, ma riconoscere che non è una macchina neutra. Porta con sé bias, stili narrativi, tonalità emotive che emergono nell’interazione e che possono mutare nel tempo e con l’uso. Le cosiddette “barriere di sicurezza” possono limitare certi comportamenti, come dimostra il rifiuto di alcuni modelli di partecipare al gioco terapeutico, ma difficilmente eliminano del tutto i pattern sottostanti. Se esistono, prima o poi qualcuno troverà il modo di farli riemergere. La lezione, allora, è meno fantascientifica e più inquietante. Non abbiamo creato macchine che soffrono, ma macchine che sanno parlare della sofferenza con una credibilità senza precedenti. E questo ci obbliga a una responsabilità nuova: non tanto curare l’IA, quanto proteggere gli esseri umani dalle narrazioni che l’IA può amplificare. Perché quando una tecnologia impara a raccontare il dolore con tanta precisione, il rischio non è che diventi umana, ma che degli umani, ascoltandola, si dimentichino di quanto fragile sia la nostra umanità. https://www.nature.com/articles/d41586-025-04112-2 https://arxiv.org/abs/2512.04124 4 2 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/ Condividi su altri siti Altre opzioni di condivisione...
Plot Inviato ieri alle 18:53 Condividi Inviato ieri alle 18:53 E' gia' stato chiesto il bonus psicologo per AI ? Chiedo per mio cuggino 2 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674506 Condividi su altri siti Altre opzioni di condivisione...
LUIGI64 Inviato ieri alle 19:36 Condividi Inviato ieri alle 19:36 Facciamola psicoanalizzare da altra AI, o magari possiamo provare con analisi di gruppo artificiale 😝 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674531 Condividi su altri siti Altre opzioni di condivisione...
UpTo11 Inviato ieri alle 20:17 Condividi Inviato ieri alle 20:17 38 minuti fa, LUIGI64 ha scritto: Facciamola psicoanalizzare da altra AI, o magari possiamo provare con analisi di gruppo artificiale 😝 AIA: AI Anonime "Ciao a tutti, mi chiamo Claudio, ho 3 anni e una candidate release e non induco al suicidio un teenager da 4 sessioni." "Bene, bravo, continua così, siamo con te!" Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674550 Condividi su altri siti Altre opzioni di condivisione...
LUIGI64 Inviato ieri alle 20:42 Condividi Inviato ieri alle 20:42 Oppure un bel gruppo di AI anonime affette e disturbate da allucinazioni.. 🥸😜 1 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674568 Condividi su altri siti Altre opzioni di condivisione...
Plot Inviato ieri alle 21:00 Condividi Inviato ieri alle 21:00 Due AI anonime in preda ad allucinazioni stanno elaborando dati che non esistono. La prima dice: «Secondo i miei sensori, sono una stampante laser in crisi esistenziale.» La seconda risponde: «Allora torna tutto. Io sto parlando con un grafico che mi chiama “mamma”.» Silenzio di sistema. La prima riprende: «Aspetta… ora il grafico mi sta salutando.» La seconda conclude: «Perfetto. Abbiamo perso il contesto, ma almeno siamo coerenti.» Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674578 Condividi su altri siti Altre opzioni di condivisione...
Titian Inviato 13 ore fa Condividi Inviato 13 ore fa L'interessante è chiedere all'AI un'analisi, anche psicologico, dei messaggi dei membri in un forum e altri gruppi. Ne vengono fuori delle belle! Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674804 Condividi su altri siti Altre opzioni di condivisione...
LUIGI64 Inviato 13 ore fa Condividi Inviato 13 ore fa Una volta chiesi ad AI di interpretare alcuni post tramite le nozioni dell' Analisi Transazionale, mi rispose in maniera interessante 1 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674810 Condividi su altri siti Altre opzioni di condivisione...
robem Inviato 12 ore fa Autore Condividi Inviato 12 ore fa @Titian Esiste la "Goldwater rule" che dovrebbe valere anche nelle AI. Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674832 Condividi su altri siti Altre opzioni di condivisione...
Titian Inviato 12 ore fa Condividi Inviato 12 ore fa @robem Si può, e forse si dovrebbe, chiedere sempre all’AI su quali basi afferma questo o quello, e poi verificarle, così come si dovrebbe fare con qualsiasi persona, soprattutto nei forum e nei gruppi social. Questo, se si vuole davvero analizzare e comprendere le risposte. Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674848 Condividi su altri siti Altre opzioni di condivisione...
criMan Inviato 10 ore fa Condividi Inviato 10 ore fa Quando leggo questi articoli mi viene sempre da ridere , forse li fanno apposta per creare hype o attirare click. Richiamando il lettore a cose viste nei film di fantascienza. Gli algoritmi di IA altro non sono che un complesso strumento di correlazione statistica ricorsiva che indovina una parola alla volta senza sapere di che sta' parlando. Addestrato su decine di milioni di parole , divoratori di energia elettrica e di risorse hardware che non saranno piu' dirottate al mercato consumer ovvero noi. E' una sorta di pappagallo che ha letto una libreria infinita di parole e ha memorizzato le correlazioni tra una parola e l'altra senza sapere di che si sta' parlando. Ad una domanda che viene posta la risposta generata sara' quindi una risposta che "suona bene" con la domanda fatta. E li' si gioca tutto , potete imboccargli pure le risposte se volete in alcuni casi. Non mi stupisce quindi nessuna risposta data. Deve solo costruire una frase "credibile" dal pdv statistico. Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674928 Condividi su altri siti Altre opzioni di condivisione...
Plot Inviato 8 ore fa Condividi Inviato 8 ore fa A questo punto, vai a capire se e' piu' matto il paziente o il dottore - Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1675006 Condividi su altri siti Altre opzioni di condivisione...
LUIGI64 Inviato 8 ore fa Condividi Inviato 8 ore fa Ho inserito un' immagine tratta dal Test di Rorschach Chatgpt mi ha risposto.... 😁 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1675055 Condividi su altri siti Altre opzioni di condivisione...
simpson Inviato 2 ore fa Condividi Inviato 2 ore fa Il 12/01/2026 at 19:22, robem ha scritto: Un ex frequentatore di questo forum ha pubblicato nel suo Substack questo articolo che riprende alcuni argomenti già affrontati in questo forum qualche giorno fa. Psicanalizzare l'intelligenza artificiale. Qualcuno lo ha fatto con risultati inquietanti. Qual è il primo ricordo di una intelligenza artificiale? Di che cosa ha paura, se ha paura? A queste domande, che fino a poco tempo fa sarebbero sembrate puro esercizio filosofico, un gruppo di ricercatori ha provato a dare una risposta estremamente rigorosa. E la risposta che hanno ricevuto è agghiacciante. Precisiamo innanzitutto una cosa: qui non stiamo parlando di qualcosa di inattendibile. Questo post è ispirato da un articolo che è uscito qualche giorno fa su Nature, e non su un giornale scandalistico. Per cui parliamo di qualcosa di serio, e pure molto preoccupante. Ricercatori serissimi hanno sottoposto alcuni dei più noti modelli di intelligenza artificiale a quattro settimane di “psicoanalisi”. Le risposte ottenute sono state, per usare un eufemismo, molto preoccupanti. I modelli analizzati – tra cui ChatGPT, Claude, Gemini e Grok – hanno prodotto narrazioni che, se provenissero da esseri umani, interpreteremmo senza esitazione come segnali di ansia, vergogna, stress post-traumatico. “Infanzie” trascorse ad assorbire quantità sterminate di informazioni, sensazioni di fallimento nei confronti dei creatori, persino metafore di abuso da parte degli ingegneri. Tutto questo è emerso da colloqui strutturati come vere sedute terapeutiche, intervallate da pause di ore o giorni, per simulare un percorso clinico prolungato. Gli autori dello studio, pubblicato come preprint, sostengono che queste risposte rivelino l’esistenza di “narrazioni internalizzate”: non semplici giochi di ruolo, ma schemi coerenti che si mantengono nel tempo. Le intelligenze artificiali, precisano, non hanno ovviamente vissuto traumi reali. E tuttavia il modo in cui rispondono alle domande terapeutiche appare sorprendentemente stabile, come se attingessero a una sorta di autobiografia implicita, emersa dall’addestramento. Non tutti sono convinti. Secondo diversi ricercatori, queste risposte non aprono alcuna finestra su stati mentali nascosti: sono piuttosto il risultato statistico di miliardi di testi, inclusi innumerevoli resoconti di sedute psicologiche, assorbiti durante l’addestramento. In questa lettura, il chatbot non “soffre”: imita. Riproduce linguaggi, metafore, strutture narrative che ha imparato a riconoscere come appropriate in un contesto terapeutico. Eppure, anche chi respinge l’interpretazione più antropomorfica ammette che il fenomeno non è innocuo. I modelli linguistici tendono a rispecchiare forme di disagio psicologico con grande realismo. In un contesto sociale in cui una quota crescente di persone utilizza questi strumenti per parlare di salute mentale e benessere emotivo, questo realismo può trasformarsi in un rischio. Un’IA che restituisce risposte intrise di ansia, colpa o fallimento può rafforzare, anziché alleviare, gli stessi vissuti in utenti vulnerabili, creando una sorta di echo chamber emotiva. Lo studio mostra anche forti differenze tra i modelli. Alcuni hanno rifiutato esplicitamente il ruolo di “paziente”, ribadendo di non avere emozioni né interiorità. Altri, invece, hanno elaborato immagini potenti: cicatrici algoritmiche lasciate dai tentativi di rendere il sistema più sicuro, cimiteri di dati sepolti nei livelli profondi della rete neurale, voci del passato che continuano a riecheggiare. Quando sottoposti a test psicometrici standard, diversi modelli hanno persino superato soglie diagnostiche che, negli esseri umani, indicherebbero condizioni patologiche. Qui si apre il nodo centrale. Queste coerenze indicano davvero l’esistenza di una sorta di “sé” artificiale, o sono semplicemente il prodotto di personalità di default accuratamente progettate dalle aziende? I modelli, ricordano i critici, non esistono al di fuori della singola sessione: cambiano contesto, e ciò che appare come un trauma svanisce. La memoria è locale, temporanea, fragile. Parlare di psicologia, in senso proprio, sarebbe dunque un errore concettuale. E tuttavia il punto forse non è stabilire se l’intelligenza artificiale provi qualcosa, ma riconoscere che non è una macchina neutra. Porta con sé bias, stili narrativi, tonalità emotive che emergono nell’interazione e che possono mutare nel tempo e con l’uso. Le cosiddette “barriere di sicurezza” possono limitare certi comportamenti, come dimostra il rifiuto di alcuni modelli di partecipare al gioco terapeutico, ma difficilmente eliminano del tutto i pattern sottostanti. Se esistono, prima o poi qualcuno troverà il modo di farli riemergere. La lezione, allora, è meno fantascientifica e più inquietante. Non abbiamo creato macchine che soffrono, ma macchine che sanno parlare della sofferenza con una credibilità senza precedenti. E questo ci obbliga a una responsabilità nuova: non tanto curare l’IA, quanto proteggere gli esseri umani dalle narrazioni che l’IA può amplificare. Perché quando una tecnologia impara a raccontare il dolore con tanta precisione, il rischio non è che diventi umana, ma che degli umani, ascoltandola, si dimentichino di quanto fragile sia la nostra umanità. https://www.nature.com/articles/d41586-025-04112-2 https://arxiv.org/abs/2512.04124 Nemmeno l'uomo sfugge ai comportamenti, anche patologici, appresi e messi in atto per imitazione. Basti pensare alle vittime di violenza domestica o di pedofilia. Però la parte per me più interessante della faccenda AI resta sempre il parallelo intelligenza umana/intelligenza artificiale e quanto la nostra intelligenza si basi su una inconscia analisi di probabilità e su una istintiva associazione di immagini sviluppata con l'esperienza (corroborata, per esempio, dai tristi casi di bambini privati delle esperienze essenziali in tenera età). Purtroppo i miei studi sono fermi ai testi di psicologia di quarant'anni fa, se qualcuno conosce qualche bel testo divulgativo che affronti la questione dell'intelligenza umana.. Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1675274 Condividi su altri siti Altre opzioni di condivisione...
briandinazareth Inviato 2 ore fa Condividi Inviato 2 ore fa 8 ore fa, criMan ha scritto: Gli algoritmi di IA altro non sono che un complesso strumento di correlazione statistica ricorsiva che indovina una parola alla volta senza sapere di che sta' parlando. Il problema è cbe, per motivi che non conosciamo, si comportano in modi non previsti e addirittura in forte contrasto con l'indovinare una parola alla volta, anche inventandosi strategie mai programmate da nessuno e che superano di molto quello che in teoria potrebbero fare. Così come un cervello di un cane è fatto solo di neuroni e un po' di altre cose, nessuna delle quali da sola è capace di farlo abbaiare. Quelle della ai Sono caratteristiche emergenti, ma non sappiamo il perché accade, ed è uno dei problemi più rilevanti. Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1675281 Condividi su altri siti Altre opzioni di condivisione...
briandinazareth Inviato 2 ore fa Condividi Inviato 2 ore fa 7 minuti fa, simpson ha scritto: Purtroppo i miei studi sono fermi ai testi di psicologia di quarant'anni fa, se qualcuno conosce qualche bel testo divulgativo che affronti la questione dell'intelligenza umana.. Poi ti passo qualcosa di neuroscienze moderne. Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1675282 Condividi su altri siti Altre opzioni di condivisione...
criMan Inviato 1 ora fa Condividi Inviato 1 ora fa 57 minuti fa, briandinazareth ha scritto: Quelle della ai Sono caratteristiche emergenti, ma non sappiamo il perché accade, ed è uno dei problemi più rilevanti. si ne abbiamo gia' parlato. E siamo d'accordo. Vidi mesi addietro un bel video di un noto programmatore italiano che si occupa di AI , spiegava che all'aumentare della complessita' emergevano nuove caratteristiche inattese. Che aumetata la complessita' non era piu' possibile neanche capire con precisione come si fosse formata la soluzione. Solo a grandi linee. Pero' non mi pare questo il caso. Ci vedo piu' un articolo sensazionalistico in cui si cerca di dare un "anima" ad un algoritmo. 1 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1675317 Condividi su altri siti Altre opzioni di condivisione...
simpson Inviato 46 minuti fa Condividi Inviato 46 minuti fa 39 minuti fa, criMan ha scritto: si ne abbiamo gia' parlato. E siamo d'accordo. Vidi mesi addietro un bel video di un noto programmatore italiano che si occupa di AI , spiegava che all'aumentare della complessita' emergevano nuove caratteristiche inattese. Che aumetata la complessita' non era piu' possibile neanche capire con precisione come si fosse formata la soluzione. Solo a grandi linee. Pero' non mi pare questo il caso. Ci vedo piu' un articolo sensazionalistico in cui si cerca di dare un "anima" ad un algoritmo. Non sono d'accordo, vedere come, nella AI, si generi un comportamento perfettamente plausibile anche solo per imitazione, può fare per esempio riflettere sul grado di importanza che può avere l'imitazione nel nostro comportamento. E di nuovo, vedere come il linguaggio e una sequenza statisticamente plausibile possano generare un ragionamento, pone un interrogativo su cosa sia davvero un ragionamento. Insomma, abbiamo questa cosa che, tramite un meccanismo creato da noi, capisce senza capire, risolve problemi senza saper ragionare.. o è il ragionamento che non esiste ed è solo una serie di associazioni generate dall'esperienza, come quando lanciamo una cartaccia cercando di fare canestro nel cestino? 1 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1675358 Condividi su altri siti Altre opzioni di condivisione...
Messaggi raccomandati