Vai al contenuto
Melius Club

Intelligenza artificiale: cosa ne pensano i forumer esperti?


Messaggi raccomandati

LUIGI64

Invasione dell'AI, come era prevedibile, anche nel mondo della musica

Oggi nell'ecosistema delle startup di IA generativa dedicata alla musica ci sono circa 300 aziende totali al mondo", ha spiegato Chiara Santoro, music and tech advisor dell'Airia. Gli strumenti sono molto vari, da quelli che generano canzoni dal testo a quelli che servono per il mixing o identificano se è stata usata l'IA in un brano. "Ma c'è allo stesso tempo un'invasione di contenuti - ha aggiunto - ogni giorno sulle piattaforme vengono pubblicate 106mila tracce e non c'è una stima di quante siano generate da IA. Pochissime riescono ad avere almeno 100 ascolti l'anno".
    Di questo ha parlato pure Enzo Mazza, ceo di Fimi: "Ci sono persino brani creati con l'IA e fatti ascoltare dai bot per farli salire in classifica", con ricadute economiche. Per lui "ci vuole un sistema di licenza per combattere tutti i fenomeni illeciti, perché la musica IA sta diventando una parte del mercato e dovrà essere utilizzata, creata e messa a disposizione in maniera legale perché competerà con gli altri

https://www.ansa.it/sito/notizie/cultura/musica/2026/03/02/musica-e-ia-invasione-di-contenuti-ma-pochi-ascolti_4b87def1-a0a1-4475-b444-7818e6f55cb9.html

LUIGI64

 

Le macchine pensano? distinguo tra senso debole e senso forte

Arriviamo così alla domanda iniziale. Possiamo dire che le macchine pensano?

Una risposta puramente funzionalista potrebbe essere: sì, in un certo senso. Se definiamo il pensiero come la capacità di manipolare simboli, prevedere sequenze, risolvere problemi linguistici e logici, allora è difficile negare che molti sistemi di IA svolgano una parte di queste funzioni spesso meglio di noi. Dal punto di vista dell’osservatore esterno, che osserva solo input e output, il confine fra “pensare” e “simulare il pensiero” si sfuma.

Ma se manteniamo una definizione più ricca, legata a ciò che sappiamo dalla psicologia e dalle neuroscienze, la situazione cambia. Il pensiero umano è dinamico e situato, cioè intrecciato al corpo, alla percezione, al contesto sociale. È storico: cresce e si trasforma nel tempo, costruendo una traiettoria biografica. È meta-riflessivo, nel senso che è capace di interrogare e modificare le proprie regole quando è necessario. Infine, è normativo: non solo descrive il mondo, ma valuta, giudica, accetta o rifiuta norme e valori.

I sistemi attuali di IA incarnano solo una parte di queste dimensioni: eccellono nella manipolazione sintattico-statistica di simboli, ma non possiedono ancora una storia interna autonoma, né una vera capacità di reindirizzare i propri fini, né un ancoraggio diretto all’esperienza percettiva e corporea.

Forse, allora, la risposta più onesta non è un sì o un no netto, ma un distinguo: le macchine pensano, in senso debole, e lo fanno attraverso strumenti che implementano alcuni aspetti del nostro pensare, rendendoli espliciti e automatizzabili. Ma anche: le macchine non pensano, in senso forte, nel modo in cui lo fa una mente umana, fatta di dinamiche cerebrali incarnate, di meta-riflessione, di apprendimento continuo e di tensione verso la verità e il significato.

Riconoscere questa differenza non serve a sminuire la potenza delle macchine, né a idealizzare l’uomo. Serve piuttosto a chiarire il terreno su cui ci muoviamo: quando interagiamo con un LLM, non stiamo parlando con un nuovo “soggetto” dotato di pensieri propri, ma con una sofisticata interfaccia statistica costruita a partire dai pensieri (questi sì, molto reali) di milioni di esseri umani.

Il rischio, se confondiamo le due cose, non è che le macchine diventino troppo simili a noi, ma che noi stessi finiamo per ridurre il nostro pensare a ciò che una macchina sa imitare.

Interessante articolo:

 

Perché ChatGPT non “pensa” come un umano: quattro criteri decisivi - Agenda Digitale https://share.google/L5AUOUTG7GOY3lqqZ

 

faber_57

A proposito di IA, come valutate le due posizioni contrapposte relative alla possibilità di coscienza dipendente oppure no dal substrato? Per fare due nomi: Susan Schneider e Geoffrey Hinton. Per inclinazione mia personale sono più attratto dalla posizione di Hinton, che la definisce come proprietà emergente di reti complesse indipendenti dal substrato, biologico o no che sia. La posizione della Schneider, che tira in ballo l'entanglement, mi ricorda Cartesio e la ghiandola pineale :classic_biggrin:. Però, essendo tutte e due ipotesi (anche se Hinton qualche prova sperimentale la porta) direi che sono degne di dibattito: almeno ci distraiamo un po' dal terribile uso dell'IA che l'uomo sta già facendo... Dalle due posizioni derivano ipotesi anch'esse discutibili (nel senso che sono problematiche da accettare). Ad esempio quella sull'identità personale: per la Schneider il teletrasporto di Star Trek non conserva tale identità, mentre per Hinton sì.

LUIGI64

 

Gli studiosi del settore sostengono che l’ia stia riducendo i tempi di pianificazione necessari per attacchi complessi, un fenomeno noto come “compressione decisionale”. Craig Jones, esperto di strategia militare all’università di Newcastle, spiega al Guardian che “la macchina fornisce suggerimenti su quali obiettivi colpire molto più velocemente rispetto al pensiero umano”, quindi attacchi che un tempo richiedevano giorni o settimane di pianificazione possono essere preparati e approvati in poche ore.

Il rischio, avverte nello stesso articolo David Leslie, professore di etica e tecnologia alla Queen Mary university di Londra, è che gli umani al comando finiscano per affidarsi troppo alle raccomandazioni delle macchine. Questo può portare a una sorta di “distacco cognitivo”, in cui i responsabili militari si sentono meno coinvolti nelle conseguenze delle decisioni.

Sembra che l’intelligenza artificiale sia stata usata anche in altre operazioni recenti. Secondo il Wall Street Journal, Claude sarebbe stato impiegato per pianificare e coordinare il rapimento del presidente venezuelano Nicolás Maduro, anche se non è chiaro in che modo preciso il software sia stato usato

L’intelligenza artificiale sul campo di battaglia - Alessio Marchionna - Internazionale https://share.google/wceBfXwVoXL39TefM

 

LUIGI64
1 ora fa, faber_57 ha scritto:

volevo alleggerire la tensione

Hai ragione, ma i fatti sono questi, purtroppo

Non è che ci volesse molta fantasia per ipotizzare tali scenari

Cambiano gli strumenti, ma le dinamiche degli esseri umani sono, in fondo, sempre le stesse

 

LUIGI64

Nobel Giorgio Parisi all'Università di Bari: "L'IA nelle armi è un rischio etico, l'uomo deve decidere in che direzione andare"

...Dal punto di vista etico è necessario che tutte le decisioni di uccidere persone siano prese da esseri umani in carne e ossa e non demandate a un'intelligenza artificiale non controllata". "Purtroppo - ha proseguito lo scienziato - si sta andando nella direzione opposta, perché c'è sempre più interesse a sviluppare armi possibilmente autonome e quindi capaci di prendere decisioni senza essere comandate direttamente". "Le accademie del G7 - ha detto ancora - hanno già rilanciato due volte appelli in questa direzione. C'è una discussione su un trattato alle Nazioni Unite, però bisogna che qualcuno poi decida davvero di andare in quella direzione, perché la tendenza dei governi è spesso opposta".
--
Università
https://www.baritoday.it/attualita/universita-lezione-giorgio-parisi-intelligenza-artificiale.html
© BariToday

 

Avvocato usa l’Ai e cita quattro sentenze inventate, il giudice lo condanna: «Colpa grave non verificare le fonti»

di Isidoro Trovato

 

A Siracusa il tribunale sanziona la condotta di un legale che ha presentato una memoria difensiva piena di «invenzioni»: si tratta delle cosiddette «allucinazioni» da intelligenza artificiale

 

È probabilmente il record italiano di sempre: citare quattro sentenze (sbagliate) in un’unica memoria difensiva. È successo al tribunale di Siracusa dove un giudice si è ritrovato a fare i conti con una linea difensiva di un legale che citava quattro precedenti giurisprudenziali ascritti alla Cassazione a sostegno delle proprie tesi: eppure qualcosa non quadrava. Lo zelante giudice siracusano effettuava una meticolosa verifica nel Ced della Cassazione, riportando gli stralci esposti dall’avvocato. Il risultato è sconcertante: nessuna delle quattro sentenze risultava calzante, per carità, le sentenze esistevano ma parlavano di tutt’altro. A quel punto, fatte tutte le possibili ipotesi sulla genesi di un simile «abbaglio», la soluzione non poteva che essere una: si tratta delle cosiddette «allucinazioni» da intelligenza artificiale, quando si affida un compito all’Ai molto spesso cerca tesi a sostegno e quando non le trova le «inventa» (non essendo sottoposta a vincoli di deontologia professionale).

Il fenomeno quindi esiste ed è stato più volte riscontrato (soprattutto in ambito legale), resta però nei compiti del legale l’obbligo di verifica di quanto prodotto dall’Ai.

Ed è proprio in tal senso che a Siracusa è arrivata la reprimenda del giudice nei confronti del legale «fantasioso». La sentenza ricorda all’avvocato che «i modelli di intelligenza artificiale generativa non costituiscono banche dati giurisprudenziali cui estrarre precedenti e citazioni, bensì strumenti di generazione automatica del linguaggio fondati su meccanismi inferenziali di natura statistica e probabilistica».

 

La condanna

In questo caso l’utilizzo dell’intelligenza artificiale in modo acritico e senza verifiche ha costretto giudici e  controparti a verificare l’attendibilità di ogni singola citazione e a controdedurre su precedenti inesistenti, ecco perché la sentenza è risultata implacabile: per l’avvocato «si prefigurano gli estremi della colpa grave non potendosi più tollerare, allo stato attuale delle conoscenze tecnologiche diffuse, errori di tale natura, i quali - lungi dal costituire meri refusi o imprecisioni - nascono da colpevole negligenza».

Per questo motivo, secondo il giudice l’avvocato in questione «va dunque condannato d’ufficio, ai sensi dell’art. 96, co. 3, c.p.c., al pagamento, in favore della controparte costituita, in aggiunta alle spese di lite, d’una somma equitativamente determinata a titolo di risarcimento del danno». Nota a margine, nel merito: la parte difesa dal legale, mal supportato dall’intelligenza artificiale, è stata condannata.

 

Ho l'impressione che i programmatori della Silicon Valley da anni abbiano smesso di elaborare programmi per computer e sono divenuti programmatori di comportamenti umani. Nel momento in cui una parte cospicua dell'umanità ha affidato loro il suo rapporto con la realtà inconsapevolmente si è messa nella mani di questi programmatori, che li convinceranno poco alla volta a vedere solo quello in cui credono. Ovvero a farsi manipolare da costoro.

L'intelligenza artificiale è il passaggio finale di questi manipolatori di comportamenti umani.

  • Melius 1

 

A Londra le prime proteste contro l’Ai: avvocati, programmatori, insegnanti davanti a OpenAi e Google

di Massimiliano Jattoni Dall’Asén

 

Nelle scorse settimane la capitale inglese ha visto le prime proteste contro l’Ai. Cresce il dissenso globale tra lavoro, diritti e controllo della tecnologia

 

Per anni l’intelligenza artificiale è stata raccontata come una promessa — economica, tecnologica, persino culturale. O come un rischio teorico, discusso tra ricercatori e decisori pubblici. Oggi, per la prima volta, comincia a diventare anche un terreno di conflitto.

 

La protesta nel cuore della Londra tecnologica

La scorsa settimana a Londra alcune centinaia di persone hanno manifestato nel quartiere di King’s Cross, uno dei poli europei più rilevanti per lo sviluppo dell’Ai. La marcia, organizzata da gruppi come PauseAI e Pull the Plug e ribattezzata «March Against the Machines», è partita dagli uffici londinesi di OpenAI su Pentonville Road e si è snodata tra le sedi delle principali aziende del settore, passando davanti a Google DeepMind e dirigendosi verso gli uffici di Meta.

Non si è trattato di un episodio isolato. Solo pochi giorni prima, il 28 febbraio, una manifestazione più ampia aveva attraversato il centro della città, portando in strada migliaia di persone: secondo gli organizzatori la più grande protesta contro l’intelligenza artificiale finora. A promuoverla erano state reti di attivisti e collettivi giovanili, tra cui Pull the Plug, PauseAI e Mad Youth Organise, ma la composizione del corteo andava ben oltre i gruppi organizzati: insegnanti, artisti, programmatori, avvocati, lavoratori di settori diversi.

Non era una protesta contro la tecnologia in sé. Tra i partecipanti emergeva piuttosto una posizione più articolata: l’idea che l’intelligenza artificiale possa essere uno strumento utile, ma che la sua direzione non possa essere lasciata esclusivamente alle grandi aziende. Come ha osservato Extinction Rebellion UK in un resoconto successivo, molti non rifiutavano l’Ai, ma immaginavano strumenti capaci di ampliare la creatività umana, invece di sostituirla o di gestire silenziosamente interi ambiti della vita sociale.

Durante la marcia, accanto agli slogan più radicali, circolavano anche racconti più sfumati. Un avvocato, fermatosi a parlare con gli organizzatori, spiegava di utilizzare quotidianamente l’Ai per redigere documenti legali. «A volte scrive meglio di me», diceva, non con ostilità ma con una forma di incertezza, come se il cambiamento fosse già in atto e difficile da collocare.

La manifestazione si era conclusa con un’assemblea pubblica e una richiesta che ricorre in molte delle iniziative di questo tipo: fermarsi abbastanza a lungo da permettere una discussione collettiva su cosa si sta costruendo.

 

Dalle iniziative marginali a un fenomeno visibile

Per tutte queste prime manifestazioni di protesta, i numeri restano contenuti — qualche centinaio di partecipanti — ma è la traiettoria a colpire. Nel giro di pochi anni si è passati da iniziative marginali a una mobilitazione capace di organizzarsi, scegliere obiettivi simbolici e ottenere attenzione mediatica. È un’evoluzione che diverse analisi internazionali hanno iniziato a registrare, segnalando come il tema stia progressivamente uscendo dalla dimensione specialistica per entrare in quella pubblica.

Quello che emerge a Londra non è un movimento compatto, ma una convergenza di inquietudini. C’è chi teme l’impatto sul lavoro, chi guarda alla qualità dell’informazione e alla difficoltà crescente di distinguere tra contenuti autentici e sintetici, e chi esprime preoccupazioni più radicali sullo sviluppo futuro della tecnologia. Negli ultimi mesi, riviste come Time hanno descritto questo passaggio come l’inizio di un malcontento più diffuso, non più confinato agli addetti ai lavori.

 

Energia, territorio e diritti: i fronti del dissenso

A spingere il tema fuori dagli ambienti tecnici contribuisce anche ciò che accade lontano dalle piazze. In diversi Paesi, soprattutto negli Stati Uniti e nel Regno Unito, le tensioni si concentrano attorno ai data center necessari ad alimentare i sistemi di intelligenza artificiale. Secondo Reuters, gruppi ambientalisti e comunità locali hanno iniziato a opporsi alla loro espansione, denunciando consumi energetici elevati, pressione sulle reti elettriche e uso intensivo di acqua.

Allo stesso tempo, un altro fronte si è aperto nel mondo della produzione culturale. Scrittori, musicisti e creativi contestano l’utilizzo delle loro opere per addestrare i modelli di AI, sollevando una questione che il Financial Times ha raccontato come sempre più centrale nel confronto tra governi e grandi aziende tecnologiche.

 

Dalla promessa al confronto

In questo quadro, colpisce anche il fatto che una parte delle critiche provenga dall’interno del settore. Ricercatori ed ex sviluppatori mettono in discussione non tanto le capacità attuali dell’intelligenza artificiale, quanto la velocità con cui viene sviluppata e la difficoltà di governarne le conseguenze. Non è una opposizione alla tecnologia in sé, ma una richiesta — più o meno esplicita — di rallentamento e di controllo.

Tutto questo, per ora, non è ancora una svolta, e probabilmente non lo sarà nell’immediato. Ma il fatto che la contestazione nasca proprio nei luoghi in cui l’intelligenza artificiale viene progettata suggerisce che qualcosa si è mosso. Non più soltanto una promessa da governare, ma una realtà con cui iniziare a fare i conti.

 

  • Melius 1
Il 01/03/2026 at 12:50, Savgal ha scritto:

Da ciò che ho letto e compreso l'intelligenza artificiale è formule statistiche e algoritmi di applicazioni di queste formule, il passaggio all'autocoscienza mi pare improbabile.

Di AI ne esistono tante, ci sono quelle specializzate in video, in audio, nei testi (quelli che oggi vanno per la maggiore). Sono tanti "tipi di intelligenze" ottimizzati sul contesto, perché dietro sono totalmente differenti. Autocoscienza mi pare proprio un parolone usato a sproposito.

Chissà se Claude 4.6 proverà a fare fuori Claude 5 quando uscirà 🤣




  • 94 Diffusori significativi degli anni ‘60

    1. 1. Quali tra questi diffusori degli anni '60 ritieni più significativi?


      • Acoustic Research AR-3a
      • Altec Lansing 604 Duplex
      • B&W DM70 Continental
      • Bose 901
      • Bozak B-410 Concert Grand
      • Celestion Ditton 66
      • IMF Professional Monitor
      • JBL 4343 Studio Monitor
      • JBL L100 Century
      • KLH Model Five
      • KLH Model Nine
      • Klipsch Cornwall
      • Klipsch Klipschorn
      • Lowther PM6 in Acousta enclosure
      • Quad ESL-57
      • Spendor BC1
      • Tannoy Monitor Gold 15
      • Wharfedale W90

  • Notizie

  • Badge Recenti

    • Ottimi Contenuti
      rebeccariccobon
      rebeccariccobon ha ottenuto un badge
      Ottimi Contenuti
    • Reputazione
      max
      max ha ottenuto un badge
      Reputazione
    • Membro Attivo
      Forest
      Forest ha ottenuto un badge
      Membro Attivo
    • Grande Supporto
      Velvet
      Velvet ha ottenuto un badge
      Grande Supporto
    • Membro Attivo
      Mike Mike
      Mike Mike ha ottenuto un badge
      Membro Attivo
  • KnuKonceptz

    Kord Ultra Flex speakers cable

    Rame OFC 294 fili 12 AWG

    61dl-KzQaFL._SL1200_.jpg

×
×
  • Crea Nuovo...