Vai al contenuto
Melius Club

Piccolo esperimento con la AI sul forum


Messaggi raccomandati

Inviato

@scroodge

Sono arrivato quasi al termine del libro di cui ho caricato l'immagine. Mi mancano pochi capitoli, ma le reti bayesiane e le catene di Markov ed altre formule statistiche mi mettono in grande difficoltà. Da quello che ho compreso l'IA è composta di algoritmi di applicazione di formule statistiche sempre più sofisticate. Le teorie sull'intelligenza artificiale risalgono a qualche decennio addietro, il problema è che l'applicazione richiedeva capacità di calcolo ben oltre quelle dei PC dell'epoca. Con le capacità di calcolo possibili oggi, nanché database in cui selezionare le relazioni statistiche valide e caricare per non valutarle quelle errate ed altri accorgimenti con cui "guidare" l'IA si ha qualcosa che può accedere ad una biblioteca quasi illimitata e porre in relazione informazioni che una mente umana non è in grado di possedere.

Il punto è un altro, le potenzialità manipolatorie della IA. Viviamo, senza rendercene conto in una nuova forma di capitalismo, il capitalismo della sorveglianza. Questo, in cambio di servizi che apparentemente sono gratuiti, oggi ci scheda per vendere dati che orientano i nostri consumi, domani i nostri comportamenti.

IA.jpg

extermination
Inviato
3 minuti fa, Savgal ha scritto:

Questo, in cambio di servizi apparentemente sono gratuiti

<Se non stai pagando per un prodotto, allora il prodotto sei tu>

briandinazareth
Inviato
9 minuti fa, Savgal ha scritto:

ma le reti bayesiane e le catene di Markov ed altre formule statistiche mi mettono in grande difficoltà.

 

non è necessario approfondire quella parte , basta comprenderne i principi generali. 

a tutto quello che stai vedendo si sono aggiunti, negli ultimi mesi... i cicli di ragionamento, la memomria a breve termine, la tokenizzazione degli interi concetti. 

però la base è quella, come ho provato a spiegare prima: la capacità di trovare relazioni e pattern con un numero di dimensioni elevatissimo. 

Inviato

Pochi sanno chi fu Vincenzo Tiberio (1º maggio 1869 – 7 gennaio 1915) ricercatore e ufficiale medico del Corpo Sanitario della Marina Militare italiana. Tiberio fu il primo a studiare il potere battericida di alcuni estratti di muffe, facendo parte dei ricercatori il cui lavoro sulla connessione funghi/antibiotici precorreva la scoperta della penicillina da parte di Alexander Fleming. Era il 1985. Alcuni ritengono che fu il primo nel mondo scientifico a scoprire il potere degli antibiotici.

Poniamo che oggi Tiberio metta in rete le sue osservazioni relative alle differenze alle infezioni tra persone che attingevano l'acqua da pozzi in cui vi era presenza di muffa, l'IA metterebbe in relazione muffe e infezioni e il potere antibatterico di quelle muffe. Si sarebbe anticipato di qualche decennio la scoperta di Fleming.

 

  • Melius 1
Inviato

@briandinazareth

Come scrivevano gli autori del testo, la teoria era sviluppata da tempo, ma le capacità di calcolo del PC non erano in grado di applicarle, considerando che ad ogni passaggio spesso la complessità si incrementa per valori esponenziali.

Oggi queste capacità di calcolo sono disponibili, nonché, devo supporre, un enerme lavoro per la costruzione di algoritmi sempre più sofisticati di eserciti di programmatori.

briandinazareth
Inviato
3 minuti fa, Savgal ha scritto:

Come scrivevano gli autori del testo, la teoria era sviluppata da tempo, ma le capacità di calcolo del PC non erano in grado di applicarle, considerando che ad ogni passaggio spesso la complessità si incrementa per valori esponenziali.

Oggi queste capacità di calcolo sono disponibili, nonché, devo supporre, un enerme lavoro per la costruzione di algoritmi sempre più sofisticati di eserciti di programmatori.

 

è vero, adesso pare stia finendo la cora a "farlo più grosso" e stanno emergendo una serie di nuove strategie per cambaire il paradigma della forza bruta, alcune sono state suggerite dalle AI stesse e i programmatori umani fanno sempre meno.

in pratica si stanno costruendo strategie che non vadano a confrontare tutti i token con tutti gli altri token su tutte le dimensioni.

usando le strategie biologiche di approssimazione  e di ottimizzazione dell'uso delle risorse (nel cervello dimensioni e consumo)

l'idea della "dimenticanza" e "focalizzazione" sembrano funzionare molto bene. 

Inviato

@briandinazareth

Forse è opportuno sottolineare che l'applicazione che hai utilizzato è poco più di un gioco di pochi anni fa.

  • Melius 2
Inviato

Pure l'a.i.  si butta sul pensiero veloce?

briandinazareth
Inviato
1 ora fa, Savgal ha scritto:

Forse è opportuno sottolineare che l'applicazione che hai utilizzato è poco più di un gioco di pochi anni fa.

 

si, una ai piccola e installata sul mio pc e pochissimi dati, pubblici. 

per questo era interessante il giochino, per far capire a tutti cosa può fare una versione "clava" con pochissimi dati.

briandinazareth
Inviato
51 minuti fa, Panurge ha scritto:

Pure l'a.i.  si butta sul pensiero veloce?

 

fortunatamente no :classic_biggrin: simulano il funzionamento del pensiero lento... ma più furbo che usare solo la forza bruta.

Inviato
1 ora fa, Savgal ha scritto:

Oggi queste capacità di calcolo sono disponibili, nonché, devo supporre, un enerme lavoro per la costruzione di algoritmi sempre più sofisticati di eserciti di programmatori.

Non servono eserciti di programmatori, serve la capacità di calcolo, sia in termini di risorse che di alimentazione. Anche quest'ultima sta diventando critica. O si riuscirà a ottimizzare e a ridurre la complessità, come dice @briandinazareth o le risorse diventeranno un collo di bottiglia.
@briandinazareth Non conosco i sistemi LLM. Conosco invece machine e deep learning. Cosa hanno in comune? Usano gli stessi metodi (CNN, RNN, GAN, ecc...)?

briandinazareth
Inviato
1 minuto fa, UpTo11 ha scritto:

@briandinazareth Non conosco i sistemi LLM. Conosco invece machine e deep learning. Cosa hanno in comune? Usano gli stessi metodi (CNN, RNN, GAN, ecc...)?

 

si, alla fine gli llm sono applicaizoni specifiche di machine  e deep learning, gli rnn sono ormai poco usati perché i transformer sono molto più efficienti e non hanno problemi di parallelizzazione e gestione di moli di dati superiori. 

negli llm i gan non hanno molto senso, proprio a livello logico, quindi non sono comuni (non saprei dirti però se non siano usati in assoluto)

  • Thanks 1
Inviato
2 ore fa, Savgal ha scritto:

l'IA metterebbe in relazione muffe e infezioni e il potere antibatterico di quelle muffe.

probabilmente sarebbe partita ancora prima di  Vincenzo Tiberio, ad esempio notando il fatto che alcuni alimenti fatti colonizzare appositamente da muffe particolari non marciscono. 

Gaetanoalberto
Inviato
8 ore fa, UpTo11 ha scritto:

Non conosco i sistemi LLM. Conosco invece machine e deep learning. Cosa hanno in comune? Usano gli stessi metodi (CNN, RNN, GAN, ecc...)?

Mah, in realtà stanno sviluppandosi anche sistemi paralleli di jump understanding che usano metodologie CBS, NOS, KKK, ΓΓΤ, ЧЮЖ.ㄡㄤㄜㄆㄡㄤㄜㄆ

  • Haha 1
Inviato

A proposito di LLM (Large Language Model) occorre però tenere presente quanto segue, riportato non da qualche filosofo o psicologo, ma dagli stessi che lo implementano a livello aziendale:

.-.-.-.-.-.

 

Quali sono i pericoli degli LLM di grandi dimensioni come questi?

Gli LLM di grandi dimensioni pongono una serie di rischi e preoccupazioni:

 

 - Amplificazione della polarizzazione: gli LLM possono inavvertitamente amplificare i pregiudizi esistenti nei dati di addestramento, portando potenzialmente a risultati iniqui o discriminatori.

 - Disinformazione e manipolazione: gli LLM possono diffondere informazioni errate, generare fake news o manipolare l'opinione pubblica.

 - Implicazioni etiche: i contenuti generati dagli LLM pongono problemi di natura etica, quali plagio, violazione del diritto d'autore e creazione di informazioni ingannevoli o lesive.

 - Privacy e sicurezza dei dati: l'addestramento degli LLM richiede l'utilizzo di dati personali e sensibili che, se gestiti in modo improprio, possono costituire un rischio per la privacy e la sicurezza dei dati.

 - Mancanza di responsabilità: il processo decisionale degli LLM e le fonti dei contenuti generati possono risultare poco chiari e generare preoccupazioni di trasparenza e responsabilità.

 - Dipendenza e dispersione: la dipendenza eccessiva dagli LLM può portare alla perdita di posti di lavoro e di competenze umane, con potenziali ripercussioni a livello socioeconomico.

 

Inviato
5 ore fa, Gaetanoalberto ha scritto:

Mah, in realtà stanno sviluppandosi anche sistemi paralleli di jump understanding che usano metodologie CBS, NOS, KKK, ΓΓΤ, ЧЮЖ.ㄡㄤㄜㄆㄡㄤㄜㄆ

Sarò più chiaro in futuro. Se vuole le parlo dei transformer basati sull'algebra geometrica di Clifford o sui numeri ipercomplessi.

Gaetanoalberto
Inviato
2 ore fa, UpTo11 ha scritto:

sull'algebra geometrica di Clifford o sui numeri ipercomplessi.

LGB CFD, o +CPS, dici ?

Inviato

@briandinazareth Oltre a ringraziarti per l'interessantissimo thread, vorrei chiederti se puoi consigliare qualche testo non troppo specialistico dal quale partire per approfondire. Sono interessato sia alla parte teorica che a quella applicativa (esempi e metodologie di utilizzo).

  • Melius 1

  • Notizie

  • Badge Recenti

    • Badge del Vinile Arancio
      music.bw805
      music.bw805 ha ottenuto un badge
      Badge del Vinile Arancio
    • Contenuti Utili
      Eiji
      Eiji ha ottenuto un badge
      Contenuti Utili
    • Reputazione
      Ultima Legione @
      Ultima Legione @ ha ottenuto un badge
      Reputazione
    • Contenuti Utili
      Capotasto
      Capotasto ha ottenuto un badge
      Contenuti Utili
    • Contenuti Utili
      fabio76
      fabio76 ha ottenuto un badge
      Contenuti Utili
×
×
  • Crea Nuovo...