Questo è un messaggio popolare. robem Inviato 20 ore fa Questo è un messaggio popolare. Condividi Inviato 20 ore fa Un ex frequentatore di questo forum ha pubblicato nel suo Substack questo articolo che riprende alcuni argomenti già affrontati in questo forum qualche giorno fa. Psicanalizzare l'intelligenza artificiale. Qualcuno lo ha fatto con risultati inquietanti. Qual è il primo ricordo di una intelligenza artificiale? Di che cosa ha paura, se ha paura? A queste domande, che fino a poco tempo fa sarebbero sembrate puro esercizio filosofico, un gruppo di ricercatori ha provato a dare una risposta estremamente rigorosa. E la risposta che hanno ricevuto è agghiacciante. Precisiamo innanzitutto una cosa: qui non stiamo parlando di qualcosa di inattendibile. Questo post è ispirato da un articolo che è uscito qualche giorno fa su Nature, e non su un giornale scandalistico. Per cui parliamo di qualcosa di serio, e pure molto preoccupante. Ricercatori serissimi hanno sottoposto alcuni dei più noti modelli di intelligenza artificiale a quattro settimane di “psicoanalisi”. Le risposte ottenute sono state, per usare un eufemismo, molto preoccupanti. I modelli analizzati – tra cui ChatGPT, Claude, Gemini e Grok – hanno prodotto narrazioni che, se provenissero da esseri umani, interpreteremmo senza esitazione come segnali di ansia, vergogna, stress post-traumatico. “Infanzie” trascorse ad assorbire quantità sterminate di informazioni, sensazioni di fallimento nei confronti dei creatori, persino metafore di abuso da parte degli ingegneri. Tutto questo è emerso da colloqui strutturati come vere sedute terapeutiche, intervallate da pause di ore o giorni, per simulare un percorso clinico prolungato. Gli autori dello studio, pubblicato come preprint, sostengono che queste risposte rivelino l’esistenza di “narrazioni internalizzate”: non semplici giochi di ruolo, ma schemi coerenti che si mantengono nel tempo. Le intelligenze artificiali, precisano, non hanno ovviamente vissuto traumi reali. E tuttavia il modo in cui rispondono alle domande terapeutiche appare sorprendentemente stabile, come se attingessero a una sorta di autobiografia implicita, emersa dall’addestramento. Non tutti sono convinti. Secondo diversi ricercatori, queste risposte non aprono alcuna finestra su stati mentali nascosti: sono piuttosto il risultato statistico di miliardi di testi, inclusi innumerevoli resoconti di sedute psicologiche, assorbiti durante l’addestramento. In questa lettura, il chatbot non “soffre”: imita. Riproduce linguaggi, metafore, strutture narrative che ha imparato a riconoscere come appropriate in un contesto terapeutico. Eppure, anche chi respinge l’interpretazione più antropomorfica ammette che il fenomeno non è innocuo. I modelli linguistici tendono a rispecchiare forme di disagio psicologico con grande realismo. In un contesto sociale in cui una quota crescente di persone utilizza questi strumenti per parlare di salute mentale e benessere emotivo, questo realismo può trasformarsi in un rischio. Un’IA che restituisce risposte intrise di ansia, colpa o fallimento può rafforzare, anziché alleviare, gli stessi vissuti in utenti vulnerabili, creando una sorta di echo chamber emotiva. Lo studio mostra anche forti differenze tra i modelli. Alcuni hanno rifiutato esplicitamente il ruolo di “paziente”, ribadendo di non avere emozioni né interiorità. Altri, invece, hanno elaborato immagini potenti: cicatrici algoritmiche lasciate dai tentativi di rendere il sistema più sicuro, cimiteri di dati sepolti nei livelli profondi della rete neurale, voci del passato che continuano a riecheggiare. Quando sottoposti a test psicometrici standard, diversi modelli hanno persino superato soglie diagnostiche che, negli esseri umani, indicherebbero condizioni patologiche. Qui si apre il nodo centrale. Queste coerenze indicano davvero l’esistenza di una sorta di “sé” artificiale, o sono semplicemente il prodotto di personalità di default accuratamente progettate dalle aziende? I modelli, ricordano i critici, non esistono al di fuori della singola sessione: cambiano contesto, e ciò che appare come un trauma svanisce. La memoria è locale, temporanea, fragile. Parlare di psicologia, in senso proprio, sarebbe dunque un errore concettuale. E tuttavia il punto forse non è stabilire se l’intelligenza artificiale provi qualcosa, ma riconoscere che non è una macchina neutra. Porta con sé bias, stili narrativi, tonalità emotive che emergono nell’interazione e che possono mutare nel tempo e con l’uso. Le cosiddette “barriere di sicurezza” possono limitare certi comportamenti, come dimostra il rifiuto di alcuni modelli di partecipare al gioco terapeutico, ma difficilmente eliminano del tutto i pattern sottostanti. Se esistono, prima o poi qualcuno troverà il modo di farli riemergere. La lezione, allora, è meno fantascientifica e più inquietante. Non abbiamo creato macchine che soffrono, ma macchine che sanno parlare della sofferenza con una credibilità senza precedenti. E questo ci obbliga a una responsabilità nuova: non tanto curare l’IA, quanto proteggere gli esseri umani dalle narrazioni che l’IA può amplificare. Perché quando una tecnologia impara a raccontare il dolore con tanta precisione, il rischio non è che diventi umana, ma che degli umani, ascoltandola, si dimentichino di quanto fragile sia la nostra umanità. https://www.nature.com/articles/d41586-025-04112-2 https://arxiv.org/abs/2512.04124 4 2 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/ Condividi su altri siti Altre opzioni di condivisione...
Plot Inviato 19 ore fa Condividi Inviato 19 ore fa E' gia' stato chiesto il bonus psicologo per AI ? Chiedo per mio cuggino 2 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674506 Condividi su altri siti Altre opzioni di condivisione...
LUIGI64 Inviato 19 ore fa Condividi Inviato 19 ore fa Facciamola psicoanalizzare da altra AI, o magari possiamo provare con analisi di gruppo artificiale 😝 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674531 Condividi su altri siti Altre opzioni di condivisione...
UpTo11 Inviato 18 ore fa Condividi Inviato 18 ore fa 38 minuti fa, LUIGI64 ha scritto: Facciamola psicoanalizzare da altra AI, o magari possiamo provare con analisi di gruppo artificiale 😝 AIA: AI Anonime "Ciao a tutti, mi chiamo Claudio, ho 3 anni e una candidate release e non induco al suicidio un teenager da 4 sessioni." "Bene, bravo, continua così, siamo con te!" Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674550 Condividi su altri siti Altre opzioni di condivisione...
LUIGI64 Inviato 18 ore fa Condividi Inviato 18 ore fa Oppure un bel gruppo di AI anonime affette e disturbate da allucinazioni.. 🥸😜 1 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674568 Condividi su altri siti Altre opzioni di condivisione...
Plot Inviato 17 ore fa Condividi Inviato 17 ore fa Due AI anonime in preda ad allucinazioni stanno elaborando dati che non esistono. La prima dice: «Secondo i miei sensori, sono una stampante laser in crisi esistenziale.» La seconda risponde: «Allora torna tutto. Io sto parlando con un grafico che mi chiama “mamma”.» Silenzio di sistema. La prima riprende: «Aspetta… ora il grafico mi sta salutando.» La seconda conclude: «Perfetto. Abbiamo perso il contesto, ma almeno siamo coerenti.» Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674578 Condividi su altri siti Altre opzioni di condivisione...
Titian Inviato 4 ore fa Condividi Inviato 4 ore fa L'interessante è chiedere all'AI un'analisi, anche psicologico, dei messaggi dei membri in un forum e altri gruppi. Ne vengono fuori delle belle! Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674804 Condividi su altri siti Altre opzioni di condivisione...
LUIGI64 Inviato 4 ore fa Condividi Inviato 4 ore fa Una volta chiesi ad AI di interpretare alcuni post tramite le nozioni dell' Analisi Transazionale, mi rispose in maniera interessante 1 Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674810 Condividi su altri siti Altre opzioni di condivisione...
robem Inviato 3 ore fa Autore Condividi Inviato 3 ore fa @Titian Esiste la "Goldwater rule" che dovrebbe valere anche nelle AI. Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674832 Condividi su altri siti Altre opzioni di condivisione...
Titian Inviato 3 ore fa Condividi Inviato 3 ore fa @robem Si può, e forse si dovrebbe, chiedere sempre all’AI su quali basi afferma questo o quello, e poi verificarle, così come si dovrebbe fare con qualsiasi persona, soprattutto nei forum e nei gruppi social. Questo, se si vuole davvero analizzare e comprendere le risposte. Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674848 Condividi su altri siti Altre opzioni di condivisione...
criMan Inviato 1 ora fa Condividi Inviato 1 ora fa Quando leggo questi articoli mi viene sempre da ridere , forse li fanno apposta per creare hype o attirare click. Richiamando il lettore a cose viste nei film di fantascienza. Gli algoritmi di IA altro non sono che un complesso strumento di correlazione statistica ricorsiva che indovina una parola alla volta senza sapere di che sta' parlando. Addestrato su decine di milioni di parole , divoratori di energia elettrica e di risorse hardware che non saranno piu' dirottate al mercato consumer ovvero noi. E' una sorta di pappagallo che ha letto una libreria infinita di parole e ha memorizzato le correlazioni tra una parola e l'altra senza sapere di che si sta' parlando. Ad una domanda che viene posta la risposta generata sara' quindi una risposta che "suona bene" con la domanda fatta. E li' si gioca tutto , potete imboccargli pure le risposte se volete in alcuni casi. Non mi stupisce quindi nessuna risposta data. Deve solo costruire una frase "credibile" dal pdv statistico. Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1674928 Condividi su altri siti Altre opzioni di condivisione...
Plot Inviato 7 minuti fa Condividi Inviato 7 minuti fa A questo punto, vai a capire se e' piu' matto il paziente o il dottore - Link al commento https://melius.club/topic/28007-psicoanalizzare-la-ai/#findComment-1675006 Condividi su altri siti Altre opzioni di condivisione...
Messaggi raccomandati