audio2 Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 perchè quando arrivi al punto si deve sempre ricorrere all' umano i sistemi e le procedure della p.a. i comuni le consulenze tipo avvocati la questione delle responsabilità e le interpretazioni legali per me, rimaniamo sempre ad anni e anni da un effettivo salto quantico.
LUIGI64 Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 La cosa più sconcertante, dal mio punto di vista, che si tenta di migliorare all'infinito le macchine... Ma l'uomo all'infinito rimane sempre lo stesso 😑
LUIGI64 Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 Sempre per rimanere in tema: Faggin scrive (in questo d’accordo con Geoffrey Hinton, padrino Google di IA, premio Nobel 2024): «Dobbiamo imparare a usare la tecnologia per il bene di tutti e per trasformare noi stessi in persone più compassionevoli, empatiche e cooperative”12. Il potenziale dell’IA è in pari misura positivo e negativo, perché “con l’IA sarà sempre più facile ingannare, fingere, manipolare, fare disinformazione, rubare per non parlare dell’uso in guerra”[11]. Servono perciò urgentemente regole forti per garantire l’uso etico dell’IA. E a tal fine è necessaria una profonda riforma della politica (e della classe politica) che aiuti a far sorgere un movimento consapevole di tale esigenza. Anche l’università a suo avviso dovrebbe avere una funzione importante nell’insegnamento delle virtù e dell’arte di una politica che assicurino il conseguimento del bene comune. La tecnologia diventa progresso quando ci aiuta veramente senza creare ulteriore gravame. Il vero progresso è quello che ci aiuta a crescere ..., al punto che il più «adatto» non cercherà più di sopraffare gli altri, ma metterà il suo potere e la sua conoscenza al servizio del bene comune. Il grande malinteso della concezione politica è nato dall’idea che la vita sia basata sulla competizione anziché sulla cooperazione. Ciò è successo quando l’umanità ha proiettato sulla natura il suo bisogno di superiorità. Pensare che l’intelligenza meccanica dell’IA possa superare quella umana segue lo stesso schema del voler sempre contrapporre vincitori e vinti. La competizione viene talmente esaltata nella nostra società che pochi si rendono conto che è quella che ci porta alle guerre. Questa visione del mondo promossa dal materialismo, combinata con l’IA, può portare una società alla rovina... non ci sarebbe freno a ricercare soprattutto il nostro interesse immediato Il progresso tecnologico-scientifico legato all’IA non si può fermare perché dà innegabili vantaggi in tutti i settori economico-sociali e alla difesa, occorre lavorare per cambiare da dentro i valori delle persone in grande numero: questo è un compito della politica. A tale scopo è necessaria per Faggin una battaglia culturale di base contro lo scientismo materialista e determinista che origina da una visione di pari significato e impostazione della fisica classica. Affermare, come esso fa, che noi siamo macchine è un vero e proprio attacco all’umanità. L’idea diffusa che siamo sistemi biologici simili ai sistemi digitali, con lo svantaggio di essere molto più lenti, riflette un pregiudizio fisicalista completamente sbagliato riguardo alla vita umana, che è in gran parte responsabile del problema di valori che ci affligge. La fisica quantistica ci porta invece a vedere l’universo in modo opposto. Perciò è necessario lottare contro la cattiva informazione. Perché le dittature, che si sono rette per decenni sulla disinformazione, hanno già dimostrato che questa strategia funziona, e quindi potrebbe essere copiata di pari passo da chi controlla l’intelligenza artificiale https://www.cittafutura.al.it/sito/appunti-coscienza-intelligenza-artificiale-ia-margine-della-concezione-quantistica-della-seity-secondo-federico-faggin/#post-29414-footnote-12
briandinazareth Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 siamo proprio alla propaganda religiosa ormai... e dai, pure qui? addirittura con l'attacco a chi, incredibile, pensa che dopo la morte non ci sia nulla. per favore, il tema è altro, non facciamolo diventare una sessione di dagli all'ateo.
LUIGI64 Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 Il punto non è quello, anzi taglio la parte in cui si accenna alla spiritualità (inoltre non si parla di religione o atei, in quanto ci sono credenti che si comportano anche peggio degli atei...) ...ma è quello che mi sono permesso di sottolineare nel post precedente Dal mio punto di vista, è un fatto incontrovertibile Può non piacere...pazienza Nessuna propaganda, quindi. Nel caso, si può sempre sorvolare sul post, o inserire il sottoscritto tra la lista degli ignorati Comunque, Faggin propone una soluzione, su questo sono d'accordo con lui
Xabaras Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 6 minuti fa, LUIGI64 ha scritto: ci sono credenti che si comportano anche peggio degli atei Azz... 1
Savgal Inviato 10 Dicembre 2024 Autore Inviato 10 Dicembre 2024 @tomminno Aiutami a comprendere, con supervised intendi dire che ciò che fa l'intelligenza artificiale deve essere poi sorvegliato? Se ho ben compreso, se l'IA opera con algoritmi in applicazioni di formule statistiche e la statistica ha buone probabilità di fare la scelta giusta. Ma in condizioni di incertezza, che sono quelle in cui operiamo quotidianamente, non operando con dei criteri generali, spesso tenui, di relazione, come fa la nostra mente, può prendere delle cantonate anche grandiose. In ambiti definiti, meccanicistici, anche con un numero elevato di variabili che una mente umana non sarebbe in grado di considerare, l'IA opera molto meglio degli uomini. Giusto?
briandinazareth Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 @Savgal c'è un punto importante nel ragionamento da tenere a mente. non pensiamo troppo alla statistica in termini "umani", perché sono vettori in n dimensioni che esulano da quei concetti, anche considerando la natura intrinsecamente non lineare delle reti neurali. inoltre già oggi vari modelli sono molto più sofisticati di così, avendo incorporato ragionamenti di vario tipo che la AI usa per risolvere problemi che con un approccio alla "primo gpt" sarebbero impossibili (e sono passati neppure 3 anni...). ti metto alcuni esempi interessanti che mi ha datto una AI per capire il livello di comprensione del mondo di una qualunque AI... e le risposte sono ancora più interessanti. "Descrivere il concetto di 'trasparenza' usando solo metafore tattili" "Spiega l'origine dell'universo come se lo stessi raccontando a un bambino di 5 anni che conosce solo fiabe" "Definisci la solitudine usando solo termini musicali" "Racconta una storia dove il protagonista è contemporaneamente presente e assente" "Spiega l'intelligenza artificiale usando solo analogie tratte dal mondo naturale degli insetti" "Descrivere il concetto di libertà come se fossi un oggetto inanimato chiuso in una stanza" "Cosa succederebbe se il tempo iniziasse a scorrere al contrario? Descrivi la vita quotidiana" "Definisci l'empatia usando solo termini matematici e geometrici" "Racconta di un colore che nessuno ha mai visto, usando solo suoni e sensazioni" "Spiega la coscienza come se fossi un algoritmo che cerca di comprendere se stesso"
Panurge Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 1 ora fa, LUIGI64 ha scritto: Faggin propone una soluzione Sarò pieno di pregiudizi fiscalisti ma le soluzioni sono una cosa, le favole, anche se belle, un'altra, e la modalità vecchio saggio di Faggin mi pare più vicina all'affabulazione che al problem solving.
LUIGI64 Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 Quelle favole, non è il primo che le racconta...anzi Con tutto il successo che ha ottenuto (ha 83 anni), perché dovrebbe divertirsi ad affabulare Poi, onestamente molte altre soluzioni apparentemente più pragmatiche, sono state alquanto fallimentari Mi rendo conto che quando si parla di cambiare e/o trasformare noi stessi, per qualcuno trattasi di fantasy, eppure... Recentemente quando penso a radicali cambiamenti, mi viene in mente questo bel libro Sottolineo, a scanso di equivoci, che non è propaganda pro buddhismo, ma solo per dire che il cambiamento è possibile e ognuno può trovarlo anche con modalità differenti, ovviamente; e anche in contesti impensabili.
Questo è un messaggio popolare. tomminno Inviato 10 Dicembre 2024 Questo è un messaggio popolare. Inviato 10 Dicembre 2024 2 ore fa, Savgal ha scritto: Aiutami a comprendere, con supervised intendi dire che ciò che fa l'intelligenza artificiale deve essere poi sorvegliato? Il supervised learning è la scuola della IA. Qualcuno deve prima insegnare alla IA cosa è giusto e cosa è sbagliato prima che la IA inizi a fare da sé. Né più né meno come gli umani che vanno a scuola per 20 anni, la IA impara su centinaia di migliaia di esempi (ma anche milioni quando disponibili) classificati da esseri umani. Poi inizia a fare da sé, quando sbaglia la rimandi a scuola ad imparare come riconoscere quei casi che chissà perché non riesce mai a classificare correttamente. Gli LLM che sono modelli specifici per i linguaggi naturali imparano da milioni di libri che per definizione sono scritti da esseri umani e quindi classificati a priori come buoni per imparare il linguaggio naturale. Ciò non toglie poi che un LLM che impari da melius possa dare del borsellato (o somaro ragliante dei tempi andati) a qualcuno e che questo possa aversene a male 🤣 È impensabile mettere un LLM unsupervised ad imparare un linguaggio, sarebbe l'equivalente delle scimmie che scrivono libri, statisticamente non arriveresti ad un risultato. Nel unsupervised learning invece la IA impara da sola. Questo funziona se hai regole ben precise tipo nei giochi, alla IA fornisci le regole e poi impara da sé a giocare facendo milioni di partite. Ma anche lì se non insegni le regole finisce come chatgpt alle prese con gli scacchi che trasforma pezzi degli scacchi a piacere, o muove la torre in diagonale. Esempio di un caso reale: far capire ad una IA per la guida autonoma che se vede un pallone attraversare la strada c'è il rischio concreto che dietro al pallone possa esserci un bambino che corre per riprenderlo, anche se il bambino non si vede perché nascosto dalle macchine parcheggiate che né le telecamere né il lidar ti identificano. Gli ottimisti dell'unsupervised credono che cose del genere vengano da sé. Nella realtà tireresti sotto tanti bambini prima di impararlo. 1 2
tomminno Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 Ad esempio una delle frontiere attuali della IA è la selective forgetting. L'addestramento di un modello richiede tanto tempo e quindi tanti soldi. Cosa succede se nelle milionate di esempi ce n'è qualcuno che fa sballare l'apprendimento? Rifare il training da 0 togliendo gli esempi sbagliati è molto oneroso, sarebbe più comodo se ci fosse un modo a posteriori per dire guarda quello che hai imparato da questo esempio è sbagliato, ignoralo. Molto difficile da fare perché l'esempio viene poi annegato in miliardi di soglie si/no che costituiscono il modello. 1
Savgal Inviato 10 Dicembre 2024 Autore Inviato 10 Dicembre 2024 @tomminno Innazitutto grazie per la spiegazione. L'intelligenza umana opera con criteri differenti, l'uomo compreso il concetto generale riusce a ricondurre a quel concetto i casi particolari, trascurando gli aspetti del casi particolari che li differenziano tra loro, mentre l'IA opera come "l'argomento del terzo uomo", ossia con una regressione quasi infinita per contemplare la totalità dei casi. Ho compreso bene? https://it.wikipedia.org/wiki/Argomento_del_terzo_uomo
briandinazareth Inviato 10 Dicembre 2024 Inviato 10 Dicembre 2024 la AI non funziona co una regressione quasi infinita e l'argomento del terzo uomo non è applicabile, è una metafora filosofica, non rappresenta il funzionamento della AI, che invece possiede, a suo modo, veri e propri concetti astratti. alle domando che ho postato prima è impossibile rispondere senza avere i concetti astratti, anche se in modo umano. che poi il fatto che le AI riescano a "capire" i concetti deriva proprio, come caratteristica emergente e non progettata, proprio dal fatto che le AI usano le reti neurali ad imitazione di quelle biologiche. l cosa mi pare molto interessante a molti livelli.
loureediano Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 In poche parole siamo fritti! Conoscendo l'uomo sarà una pestilenza Il potere la userà a suo unico vantaggio. 1
LUIGI64 Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 1 ora fa, loureediano ha scritto: potere la userà a suo unico vantaggio. Eh, il discorso è sempre quello, il rischio è reale e non solo ipotetico Gli strumenti a disposizione dell'uomo cambiano, o evolvono e l'uomo gira in tondo
loureediano Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 Si ma fino ad ora tutte le tecnologie erano poi riversate per tutti, ora questa tecnologia la possiamo usare pure noi ma come è stato detto adesso la abbiamo castrata, quella più performante se la tengono in pochi. Sappiamo bene che se l'atomica l'avesse uno solo comanderebbe tutto il mondo.
Gaetanoalberto Inviato 11 Dicembre 2024 Inviato 11 Dicembre 2024 18 ore fa, LUIGI64 ha scritto: Anche l’università a suo avviso dovrebbe avere una funzione importante nell’insegnamento delle virtù e dell’arte di una politica che assicurino il conseguimento del bene comune. Scusate se l'intervento sembrerà fuori dal tempo e antiggente. La virtù e l'arte di una politica per il conseguimento del bene comune, se posso portare il mio contributo, ha bisogno di un vasto approccio umanistico. Lo studio non superficiale della storia e della filosofia, arricchito da quello delle scienze sociali, può essere il punto di partenza, combinato poi ad una visione anche pratica delle problematiche della società. Questo può derivare da passioni e attitudini individuali, da studi liceali approfonditi, seguiti da quelli delle scienze giuridiche, economiche e sociali, ed anche da competenze acquisite attraverso la vita, il lavoro e la stessa carriera politica. Il vincolo dei due o tre mandati può avere senso (forse) per una carica istituzionale (più) o amministrativa (meno), ma non per la partecipazione alla vita politica con incarichi di rappresentanza o di partito. La combinazione di tutte queste caratteristiche in ina singola persona (a parte me ovviamente) è piuttosto complicata e rara. Ecco perché, ad esempio, é necessario pagarla bene, sia per la sua utilità che per ridurre altre tentazioni. Visto che la tuttologia è difficile, abbiamo una organizzazione complessa che deriva dalle regole. Fare buone regole è la base indispensabile della convivenza. Assunta questa evidenza, è necessario che tutte le discipline e le competenze umane, si assoggettino umilmente a quella giuridica che deve compendiarle. É il motivo per il quale é più che giusto pagare mille euro due parole con un avvocato, e sarebbe meglio pagare prima i mille che gli svariati multipli che seguono al fatto, invece, che il geometra inizi a fare da sé per risparmiare, magari usando l'intelligenza artificiale per supplire quella naturale. Spero di aver dato un contributo utile e pertinente.
Messaggi raccomandati