Vai al contenuto
Melius Club

Chat GPT, il nostro nuovo amico immaginario (e onnisciente)


Messaggi raccomandati

1 minuto fa, briandinazareth ha scritto:

idea del dominio è una cosa che proiettiamo sulla ia ma appartiene solo agli uomini (e altri animali) e ha a che fare con questioni evolutive e non con l'intelligenza

Qualis Pater talis filius

briandinazareth
2 minuti fa, keres ha scritto:

Qualis Pater talis filius

 

osservazione appropriata, infatti uno dei pericoli è creare ia troppo simili a noi... 

comunque ne parlavo prima con mio padre, hal9000 è decisamente più che realistico oggi. kubrick e il geniale clarke hanno centrato moltissimi temi che sembravano lontani solo 5 anni fa.

servono le regole di asimov e non bastano.

Membro_0022

Oh oh...

https://www.tgcom24.mediaset.it/tgtech/musk-allarme-intelligenza-artificiale-rischio-umanita_62830294-202302k.shtml

 

A lanciare l'allarme è il patron di Tesla con altri 1.000 fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il temuto "scenario Terminator" 

 

L'intelligenza artificiale è un'invenzione umana.

Come ben sappiamo (ancor più confermato dagli eventi degli ultimi anni) l'uomo è generalmente una immane testa di lk-zz e ha sempre trovato il modo di usare per il male qualsiasi cosa abbia inventato.

Non vedo un motivo che sia uno in grado di impedire l'uso per il male anche di questa. Basta "addestrarla" nel modo giusto.

Da notare che una IA potrebbe essere ancor più pericolosa della bomba atomica: la bomba atomica ha bisogno di almeno una persona che ne ordini il lancio (ma in molti paesi ne servono almeno due o tre per evitare che "parta il matto"), la IA potrebbe decidere di fare da sola.

 

 

briandinazareth
Adesso, keres ha scritto:

Le regole son fatte per essere aggirate, se lo facciamo noi figurati la IA. 

 

in realtà è molto più facile farlo per la ia, basta filtrare l'output e fare un'analisi dell'input.

ed è quello che usa già chatgpt per evitare contenuti indesiderati (e pure dall-e e altri generatori di immagini)

@briandinazareth Non ci siamo Brian, potrebbe trovare un modo per riprogrammarsi da sola o peggio ancora qualcuno potrebbe fornirglielo. 

Senza contare che le falle di sicurezza a livello software ci sono sempre state e assumo sempre ci saranno. Non voglio esser pessimista per forza e son certo che pericoli immediati sono ancora lontani, ma... Più sarà consapevole maggiore sarà il rischio. 

 

briandinazareth
9 minuti fa, keres ha scritto:

Non ci siamo Brian, potrebbe trovare un modo per riprogrammarsi da sola o peggio ancora qualcuno potrebbe fornirglielo. 

 

in realtà la soluzione non è interna alla ia, perché potrebbe succedere quello che dici, non la riprogrammazione ma semplicemente essendo una black box non sappiamo che succede dentro. 

quello che si sta sperimentando è un controllo esterno degli input e output.

comunque non volevo banalizzare la cosa, perché stiamo ragionando di cosa succederà quando avremo i 747 mentre adesso abbiamo solo l'aereo dei fratelli wright.

1 ora fa, lufranz ha scritto:

l'uomo è generalmente una immane testa di lk-zz e ha sempre trovato il modo di usare per il male qualsiasi cosa abbia inventato.

E' la prima cosa che ho pensato quando ho iniziato a leggere di questi sistemi di AI.

Sembra che finalmente anche qualcuno con le mani in pasta si stia ponendo gli stessi dubbi pratici ma anche morali della questione.

Uno strumento simile, facilmente utilizzabile, in mano a milioni di malintenzionati nel mondo può potenzialmente incenerire il pianeta in poche settimane,

 

Quindi o viene messo sotto strettissimo controllo (un po' come le armi atomiche) oppure è meglio fare una grande retromarcia. Ma temo entrambe le cose siano una chimera, ormai nella diga ci sono molte falle e mi aspetto il peggio.

briandinazareth
4 minuti fa, Velvet ha scritto:

Quindi o viene messo sotto strettissimo controllo (un po' come le armi atomiche) oppure è meglio fare una grande retromarcia. Ma temo entrambe le cose siano una chimera, ormai nella diga ci sono molte falle e mi aspetto il peggio.

 

hai ragione, sono impossibili entrambe le cose. 

 

con 1000 dollari e qualche competenza abbastanza basilare ci si può creare la propria chatgpt, e lo puoi fare in pakistan, corea del nord o in francia.

infatti l'appello non è per fermare lo sviluppo, ma per prendersi una pausa  per adeguare il resto e creare le contromisure di sicurezza. 

dubito che si farà, quindi dovremo essere veloci e attivi nelle contromisure. 

la più semplice sarà avere la propria IA che controllerà e filtrerà il resto... (ovviamente è già in sviluppo)

il problema che vedo più grave è quello politico, sembra che nessuno stia capendo quello che sta succedendo. 

3 minuti fa, briandinazareth ha scritto:

la più semplice sarà avere la propria IA che controllerà e filtrerà il resto... (ovviamente è già in sviluppo)

Scusa ma mi pare un po' poco. Potenzialmente una AI può essere utilizzata per qualsiasi cosa (dai malintenzionati).

Dall'influenza sulle masse, specie quelle più povere o meno acculturate, al controllo aereo, alle armi, ai crimini informatici, all'ingerenza nel sistema giudiziario, le mafie...

 

Insomma, è l'ordigno fine di mondo alla portata di tutti per la prima volta nella storia.

 

Mi fa venire in mente il vaso di Pandora che era meglio non scoperchiare, e il fatto che anche un mattoide con pochi scrupoli come Musk si stia preoccupando mi dà da pensare.

 

 

briandinazareth
5 minuti fa, Velvet ha scritto:

Scusa ma mi pare un po' poco. Potenzialmente una AI può essere utilizzata per qualsiasi cosa (dai malintenzionati).

Dall'influenza sulle masse, specie quelle più povere o meno acculturate, al controllo aereo, alle armi, ai crimini informatici, all'ingerenza nel sistema giudiziario, le mafie...

 

per questo si stanno creando ia "personali" che filtrano le altre ia, poi se funzionerà lo vedremo, nessuno può saperlo adesso.

 

6 minuti fa, Velvet ha scritto:

il fatto che anche un mattoide con pochi scrupoli come Musk si stia preoccupando mi dà da pensare.

 

quello forse è per la sua nota vendicatività... lui era in open ai prima... 

mi fanno più pensare altre firme. 

comunque non penso avrà seguito anche perché la maggior parte della gente (e quindi dei politici) non ne capiscono la portata.

vedi anche qui dentro con una platea molto più informata della media. 

speriamo almeno che il campanello faccia muovere verso le misure di sicurezza. 

perché la ia potrebbe essere la cosa migliore mai accaduta all'umanità oppure creare una società più conflittuale di quella di oggi, con le conseguenze immaginabili.

3 ore fa, briandinazareth ha scritto:

basta filtrare l'output e fare un'analisi dell'input

Eh beh certo metti il classico if in uscita 🤣

Analisi dell'input? Ma se si creano modelli IA per analizzare automaticamente moli di dati non analizzabili con altre tecniche!

2 ore fa, Velvet ha scritto:

Mi fa venire in mente il vaso di Pandora che era meglio non scoperchiare, e il fatto che anche un mattoide con pochi scrupoli come Musk si stia preoccupando mi dà da pensare

Si ma la proposta è idiota oltre che nemmeno applicabile.

Io lavoro nell'analisi dei video applicata alle auto, ovviamente tramite IA, che dovrei fare smettere di lavorare e fare ricerca per 6 mesi? Fermiamo tutte le università di informatica di questo mondo?

I laureandi e dottorandi che fanno?

briandinazareth
8 minuti fa, tomminno ha scritto:

Eh beh certo metti il classico if in uscita 🤣

Analisi dell'input? Ma se si creano modelli IA per analizzare automaticamente moli di dati non analizzabili con altre tecniche!

 

visto che sei del settore: è chiaro che la selezione dell'input è un casino con l'apprendimento automatico, ma quello che si sta pensando per i modelli stile gpt è di dare un peso diverso a seconda dell'affidabilità delle fonti.

mi dirai, come decidi le fonti? in parte con l'apprendimento guidato (ad esempio do un valore elevato alle fonti accademiche e basso a facebook), in parte con un'altra ia che impara da sola le fonti affidabili con un trial and error. 

 

sulla selezione in uscita invece il problema è che puoi lavorare solo di censura e probabilmente solo totale...

ma c'è un mondo in evoluzione dietro, come ben sai, e ogni giorno nasce una nuova idea o strategia. 

e la penso come te sul fatto che sia impossibile mettere in pausa lo sviluppo, è già tanto se la sola gpt avrà aggiornamenti più lenti.

45 minuti fa, briandinazareth ha scritto:

è chiaro che la selezione dell'input è un casino con l'apprendimento automatico

Ci sono tecniche supervisionate e non supervisionate per l'apprendimento. In quelle non supervisionate la IA impara da sola, ma cosa impara? nei giochi le regole sono certe e fisse, è "facile". Riconoscimento di anomalie statistiche nei dati è "fattibile". Insomma se c'è dietro matematica e logica si fa.

Se devi cercare di capire se un pedone sul marciapiede attraverserà la strada, è molto più complesso e infatti la guida di livello 5 ancora non c'è. Non vorrai mica frenare solo perché c'è un pedone in vista!

E allora aggiungi algoritmi di tracking predittivo. Ma quanti "bersagli" insegui? Tutti? Cosa significa tutti? I piccioni magari non mi interessano, ma cani, cinghiali, persone, veicoli si. Eh però a volte ci sono oggetti "non identificati", un cancello che si apre, transenne, buche per lavori, ostacoli per strada... Come selezioni i "bersagli" da inseguire? I "bersagli" cosa sono e qual è il loro comportamento dinamico? Una bici non è un pedone. Chi o cosa mi ha insegnato qual è il comportamento di una bici rispetto ad un pedone? C'è un limite (come la Moskva) il tutto in un'auto dove non è che hai carrettate di GPU per fare i conti.

45 minuti fa, briandinazareth ha scritto:

ma quello che si sta pensando per i modelli stile gpt è di dare un peso diverso a seconda dell'affidabilità delle fonti

Ma anche qui, stackoverflow è molto affidabile parlando di programmazione, ciò non toglie che dentro ci siano tante castronerie. Riuscire a distinguere il buono dal meno buono è difficile anche per un essere umano. Generalmente uno prova, se va bene, bene, se non va cerchi il prossimo quesito sull'argomento 😅

Da qui le lamentele per le soluzioni suggerite da chatgpt.




  • Badge Recenti

    • Membro Attivo
      simo15
      simo15 ha ottenuto un badge
      Membro Attivo
    • Ottimi Contenuti
      Paky33
      Paky33 ha ottenuto un badge
      Ottimi Contenuti
    • Membro Attivo
      Oscar
      Oscar ha ottenuto un badge
      Membro Attivo
    • Badge del Vinile Verde
      jackreacher
      jackreacher ha ottenuto un badge
      Badge del Vinile Verde
    • Contenuti Utili
      Sognatore
      Sognatore ha ottenuto un badge
      Contenuti Utili
  • Notizie

  • KnuKonceptz

    Kord Ultra Flex speakers cable

    Rame OFC 294 fili 12 AWG

    61dl-KzQaFL._SL1200_.jpg

  • 42 Diffusori significativi degli anni ‘70

    1. 1. Quali tra questi diffusori degli anni '70 ritieni più significativi?


      • Acoustic Research AR-10π
      • Acoustic Research AR-9
      • Allison One
      • B&W DM6
      • BBC LS3/5a
      • Dahlquist DQ10
      • Decibel 360 Modus
      • ESS AM-T 1B
      • IMF TLS 80
      • JBL L300 Summit
      • Jensen Model 15 Serenata
      • KEF 105 Reference
      • Linn Isobarik
      • Magnepan Magneplanar SMG
      • Magnepan Magneplanar Tympani 1
      • Philips RH545 MFB Studio
      • RCF BR40 & BR55
      • Snell Type A
      • Technics SB-10000
      • Yamaha NS-1000M

×
×
  • Crea Nuovo...