audio2 Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 contributo utile vediamo in quanto pagarla bene per l' utilità sarebbe anche da approfondire la cosa, ma per ridurre le tentazioni proprio no, cioè nel senso che se uno ha il suo giusto stipendio minimo vitale la cosa delle tentazioni esula dal quantum percepito. poi nel pratico i mille euro togli anche comodamente uno zero, e poi vediamo se parlarci, perchè se le cose fossero pensate e instradate bene fin dall' inizio non bisognerebbe nemmeno arrivare a questo punto, vale lo stesso per il geometra.
LUIGI64 Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 , -David Gross. Ha ricevuto il premio Nobel della fisica nel 2004 per i risultati nella cromodinamica quantistica- https://www.ilsole24ore.com/art/l-intelligenza-artificiale-puo-essere-rischio-la-ricerca-AGujPcYB
LUIGI64 Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 Se questa scienza che grandi vantaggi porterà all'uomo non servirà per comprendere se stesso, finirà per rigirarsi contro l'uomo (Giordano Bruno) Un po' di propaganda anche per un eretico...😁😜
Plot Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 Iniziano a spuntare modelli di AI che iniziano a ragionare autonomamente, che non cercano informazioni sul web, che non sono addestrate con modelli, che non ricorrono all' aiuto delle altre AI per formarsi un parere... ...tanto per rendere l 'idea sono in grado di leggere le immagini e formulare un concetto molto chiaro in base a quello che hanno "visto". A tal proposito vi invito a dare una descrizione umana di quello che vedete in questa immagine, presa da un post qui su melius e generata dalla AI. Vi invito a descrivere e/o commentare questa foto, poi postero' il risultato -
LUIGI64 Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 Foto scattata da me Mentre telecomandavo l'uomo di ferro 😎😛
Plot Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 ...dai fai il serio, descrivila anche semplicemente o sei vuoi arricchirla di dettagli.., e' solo un test Poi ti daro' il risultato di quello che IA ha visto da questo fotogramma
Sognatore Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 Intanto grazie all’intelligenza artificiale hanno creato “cerbero” (nome quanto mai appropriato…) un sistema per elevare multe a Roma…benvenuto!!! 😤
audio2 Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 certo, sono le applicazioni pratiche del progresso
Plot Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 7 minuti fa, Sognatore ha scritto: Intanto grazie all’intelligenza artificiale hanno creato “cerbero” (nome quanto mai appropriato…) un sistema per elevare multe a Roma…benvenuto!!! 😤 ...sono anni che sento parlare di questo "cerbero" la notizia e' spuntata adesso ?
Sognatore Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 8 minuti fa, Plot ha scritto: sono anni che sento parlare di questo "cerbero" la notizia Ah non si vedeva l’ora guarda….basterà accostare 1 minuto in doppia fila (cosa che io non faccio mai ma mi metto nei panni e tollero…) per avere una bella multa a casa….cerbero è noto per la sua intransigenza e intolleranza, lo hanno nominato così apposta!!!!
Plot Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 10 minuti fa, Sognatore ha scritto: per avere una bella multa a casa Devono notificarla, senno' che lavorano a fare (lavorare e' un parolone)
audio2 Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 te la notificano online in diretta con l' intelligenza artificiale via qr code installato su smartfone, che con un trojan controlla da solo il documento di identità che ci hai caricato sopra e preleva in automatico la somma ladrata. ebbene, avete voluto il progresso ? adesso ve lo tenete.
Xabaras Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 57 minuti fa, Sognatore ha scritto: non si vedeva l’ora guarda….basterà accostare 1 minuto in doppia fila In doppia fila non si può sostare. È da incivili. Ben vengano le multe. 2
LUIGI64 Inviato 13 Dicembre 2024 Inviato 13 Dicembre 2024 Ricordo che il presidente russo V. Putin ha affermato che "il leader dell'intelligenza artificiale dominerà il mondo". Ma, come dice Buddha: "Meglio del dominio su tutti i mondi... è compiere il primo passo sulla via del risveglio" Il già citato F. Faggin
Savgal Inviato 20 Giugno Autore Inviato 20 Giugno ChatGPT fa male al cervello? I sorprendenti risultati di uno studio del MIT di Boston sul «debito cognitivo» di Federico Fubini L’intelligenza artificiale ci rende stupidi? Un analisi (preliminare) del Massachussets Institute of Technology mette in guardia dall’uso massiccio per compiti di scrittura di questi strumenti , che possono ridurre la connettività cerebrale del 55%. I rischi (e i possibili «antidoti») Più conformisti, dissociati dalle nostre stesse idee, meno capaci di pensare in modo autonomo e soprattutto meno capaci di apprendere. L’intelligenza artificiale ci rende stupidi? È una domanda legittima dopo la pubblicazione (preliminare) di un nuovo studio sperimentale del Media Lab del Massachusetts Institute of Technology sugli effetti dei «large language models». Il titolo del paper Il paper ha un titolo esplicito: «Il tuo cervello e ChatGPT: accumulazione di debito cognitivo nell’usare un assistente di intelligenza artificiale per compiti di scrittura». A guidare lo studio è Natalia Kosmyna, una ricercatrice con un dottorato in informatica che lavora sull’interazione fra i computer e il cervello umano. Il modello di ricerca di Kosmyna e dei suoi colleghi, fra i quali vari neuroscienziati e studiosi del linguaggio, è stato del tutto sperimentale. I tre gruppi che compongono il campione Kosmyna ha formato tre gruppi da un campione di 54 volontari, incaricando ciascuno dei componenti di scrivere tre brevi testi per tre sessioni successive su temi predefiniti, per un periodo esteso su un trimestre. Il primo gruppo («Brain-only») poteva scrivere solo sulla base delle proprie risorse mentali, senza accesso né a internet né a uno schermo. Il secondo gruppo aveva accesso al motore di ricerca di Google. Il terzo gruppo invece aveva accesso all’intelligenza artificiale generativa, in particolare ChatGPT di Open AI. Il cervello dei partecipanti a tutti e tre i gruppi è stato analizzato, connettendolo a degli elettrodi per un elettroencefalografia mentre svolgevano il compito richiesto. La connettività celebrale I risultati sono sorprendenti. Lo sono sia nell’immediato che negli effetti successivi dell’esperimento sui comportamenti e le capacità mentali delle persone sottoposte al test. In primo luogo, nello stesso processo di scrittura i componenti dei tre gruppi hanno manifestato un’attivazione molto diversa delle loro menti. Rispetto al livello del gruppo che scriveva senza supporto digitale, il gruppo con accesso al solo motore di ricerca ha registrato una connettività cerebrale fra il 34% e il 48% più bassa; il gruppo con accesso a ChatGPT (nella forma di GPT-4o) ha mostrato una connettività cerebrale del 55% più bassa. In sostanza, più consistente è il supporto e più si riduce l’ampiezza dell’attività del cervello. Le aree del cervello interessate Era forse prevedibile che andasse così. Ma anche la qualità del lavoro cambia. Il gruppo «Brain-only» evidenzia un’attivazione delle aree del cervello connesse con l’ideazione creativa, con l’integrazione dei significati fra loro e con l’automonitoraggio: le funzioni necessarie a generare contenuti, pianificarli e rivederli. Invece chi usa Google fa lavorare soprattutto la corteccia occipitale e visuale: le aree che presiedono ad assimilare tramite la vista l’informazione ottenuta sullo schermo e poi raccoglierla. Infine, chi usa ChatGPT attiva soprattutto le aree per funzioni pressoché automatiche e entro un’impalcatura esterna. Che cosa succede con l’Ai I lavori prodotti sono risultati molto vari e diversi gli uni dagli altri nel caso del gruppo «Brain-only», ma estremamente omogenei e simili fra loro per il gruppo che ha usato l’intelligenza artificiale. In sostanza, affidarsi all’AI genera conformismo di pensiero e messaggi. Qui però è arrivata una sorpresa ulteriore: nell’83% dei casi, chi aveva lavorato con ChatGPT ha poi avuto difficoltà nel citare frasi dai propri stessi testi già pochi minuti dopo averli consegnati; come se chi aveva scritto con ChatGPT non avesse sviluppato nessun senso di appartenenza riguardo al contenuto del proprio lavoro e tutta l’attenzione fosse andata solo a come riprodurre passivamente informazioni generate all’esterno. Al contrario, pressoché tutti coloro che avevano lavorato da soli sono riusciti a citare frasi dai testi appena scritti quasi esattamente, mostrando molta più attenzione al contenuto e al senso del lavoro svolto (non solo alle modalità). I concetti non vengono assimilati In sostanza, l’uso dell’intelligenza artificiale ha reso le persone sottoposte al test dei semplici assemblatori di concetti che non vengono assimilati dai loro stessi autori. I testi poi sono stati esaminati come piccoli saggi scolastici. I valutatori basati sull’intelligenza artificiale hanno assegnato voti più alti di testi scritti con la stessa intelligenza artificiale. Invece i valutatori umani, gli insegnanti, hanno subito riconosciuto quali erano i testi scritti con l’intelligenza artificiale e li hanno valutati meno degli altri. L’inversione dei gruppi Ma quel che è accaduto dopo dà ancora di più da riflettere. C’è infatti stata una quarta sessione del test, nella quale le parti si sono invertite. Al gruppo che aveva sempre usato l’intelligenza artificiale è stato chiesto di comporre un testo a tema fisso senza alcun supporto digitale; al contrario, chi aveva scritto fino ad allora senza supporto ha potuto usare ChatGPT. Si crea un debito cognitivo Il risultato è destinato ad aprire un dibattito sulla pericolosità dell’uso dell’intelligenza artificiale. Chi si era abituato ad usare ChatGPT ha mostrato difficoltà a ricreare il tipo di robusta attività cerebrale, ricca di connessioni, che occorre per sostenere un’attività di creazione autonoma di contenuti. Fra loro si è evidenziato quello che Kosmyna definisce un «debito cognitivo». Il tema dello scritto richiesto era uguale a quello di scritti precedenti, ma coloro che si erano abituati a ChatGPT sono riusciti a citare un elemento qualunque appena due su dieci, ora che potevano contare solo sulla propria mente. Invece chi aveva contato solo sul proprio cervello all’inizio, allenandolo in modo autonomo, è riuscito a produrre testi più ricchi e precisi proprio grazie all’uso dell’AI nella sessione finale. Attivazione cerebrale più debole Anche l’elettroencefalografia ha confermato i risultati. Chi era abituato a contare su ChatGPT ha mostrato comunque un’attivazione cerebrale più debole quando è rimasto senza supporto digitale, come se la mente fosse divenuta più pigra e incapace di creatività, giudizio di merito e memoria profonda. Invece chi aveva già imparato a pensare e produrre lavoro in autonomia ha potenziato le proprie capacità cognitive con ChatGPT. Le conclusioni Conclude lo studio: «Quando i partecipanti (al test, ndr) riproducono dei suggerimenti (dell’intelligenza artificiale, ndr) senza valutarne l’esattezza o la pertinenza, rinunciano non solo ad appropriarsi delle idee espresse, ma rischiano di interiorizzare prospettive superficiali o distorte». In altri termini, diventano individui più manipolabili da ogni sorta di propaganda o interesse. Le implicazioni per la democrazia e per la scuola o l’università non potrebbero essere più grandi: una società di persone libere e capaci di elaborare idee e un giudizio autonomo usa sì l’intelligenza artificiale; ma solo dopo aver allenato molto bene - e a lungo - quella naturale. 1 1
iBan69 Inviato 21 Giugno Inviato 21 Giugno @Savgal Ben venga uno studio di questo tipo, ma i risultati ottenuti erano già del tutto prevedibili. Il cervello umano ha necessità di continui stimoli, confronti, valutazioni, riflessioni ecc, per evolversi e per trovare le sue risposte. Se una macchina si sostituisce a questo e gli fornisce buona parte delle risposte già pronte, inevitabilmente vengono ridotte le sue capacità di ragionamento, e pertanto è anche più facile manipolarlo, senza che se ne accorga.
Savgal Inviato 21 Giugno Autore Inviato 21 Giugno @iBan69 Talvolta ho il sospetto che l'intelligenza artificiale possa essere usata quale strumento di manipolazione di massa, congiuntamente con i social network. Una nuova forma di feudalesimo con il potere e la ricchezza nella mani di chi possiede questi strumenti. L'ostacolo sono i soggetti colti e forse non è un caso che le università siano viste con sospetto. Vance tenne un discorso dal titolo "The universities are the enemy"
Messaggi raccomandati