briandinazareth Inviato 28 Marzo 2023 Inviato 28 Marzo 2023 4 minuti fa, lufranz ha scritto: Per prova fatta, so che strnzt ne può dire. Quindi, come faccio a sapere se la risposta che mi fornisce GPT su un argomento che NON conosco è una strnzt o no ? è dalla prima pagina che si dicono alcune cose: non è un oracolo, (come non lo è una persona alla quale chiedi qualcosa) è una versione appositamente limitatissima e non specializzata in nulla, esistono ia per molti scopi che funzionano ovviamente molto meglio, vedi cosa sta succedendo nella medicina. è uno strumento ed è necessario conoscerlo per saperlo usare, soprattutto in questa fase iniziale. gpt può essere considerato alla stregua dell'aereo dei fratelli wright per il volo, un inizio che dimostra che si può fare.
Membro_0022 Inviato 28 Marzo 2023 Inviato 28 Marzo 2023 Neanche questo siamo riusciti a chiarire: non "impara" tra sessioni diverse come dici tu, o "impara" come sostiene lui ? In sintesi: per ora è un giocattolo. L'elica gira ma non vola. Poi si vedrà.
keres Inviato 28 Marzo 2023 Inviato 28 Marzo 2023 3 ore fa, briandinazareth ha scritto: è una versione appositamente limitatissima e non specializzata in nulla Quale sarebbe la ragione per cui e' appositamente limitata? Tanto per sapere, oltre a non lavorare per Lufranz.
briandinazareth Inviato 28 Marzo 2023 Inviato 28 Marzo 2023 24 minuti fa, keres ha scritto: Quale sarebbe la ragione per cui e' appositamente limitata? Tanto per sapere. il primo limite è economico, l'infrastruttura sottostante è grossa e costosa, quindi si limita il consumo di risorse. il secondo è che essendo un'applicazione generalista (parlo di chatgpt che puoi usare dal browser) le informazioni dalle quali ha attinto sono limitate e chiunque lo usi per scopi specifici infatti aggiunge le parti di apprendimento specifiche. il terzo è legato all'impedire comportamenti strani da parte di chatgpt, ed è il motivo per cui anche se lo usi su bing vedi una limitazione delle interazioni. per comportamenti strani intendo che con malizia puoi fargli dire cose assurde, per esempio coinvolgendolo in un gioco di ruolo: gli hanno fatto "interpretare" trump e un po' di complottisti e lo fa spaventosamente bene.
keres Inviato 28 Marzo 2023 Inviato 28 Marzo 2023 Va bè io aspetto che abbia consapevolezza di sé e poi ci faccia fuori tutti, ma confido in swarzenegger.
briandinazareth Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 l'incredibile potenza di chatgpt e simili fa tremare alcune delle più grandi menti del nostro mondo (mentre come sempre gli ottusi non ne capiscono la portata). c'è una lettera aperta con firme di altissimo livello che chiede di mettere in pausa lo sviluppo, per almeno 6 mesi per introdurre le contromisure necessarie, a livello di ricerca sulla sicurezza, legislazione ecc. probabilmente è troppo tardi e probabilmente non si potrà fare, perché chiunque fermi lo sviluppo ora si troverà scavalcato domani. ma l'esigenza di prepararsi a questo sconvolgimento epocale è essenziale per l'umanità, e non accadrà tra anni, è già qui.
briandinazareth Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 @keres in realtà il rischio maggiore non è che la ia decida di estinguerci, anzi quello non avrebbe molto senso... il pericolo enorme è per come possa essere usato per fare disinformazione e condizionare le persone molto oltre quello che abbiamo già visto con i social. inoltre è fondamentale avere un modo per sapere se un contenuto è generato dalla ia o da un un essere umano. siamo totalmente impreparati, pochissimi politici hanno intuito la portata di questa rivoluzione. ed è una rivoluzione potenzialmente meravigliosa, potremmo espandere la nostra vita e la nostra intelligenza oltre ogni attuale immaginazione. ma senza controllo e in mano di chiunque, potrebbe facilmente convincere moltissime persone di cose assurde o pericolosissime, ad esempio...
briandinazareth Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 per chi volesse leggere la lettera: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
keres Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 31 minuti fa, briandinazareth ha scritto: In realtà il rischio maggiore non è che la ia decida di estinguerci, anzi quello non avrebbe molto senso Se ci saranno robot in grado di sopperire all'assenza umana credo che probabilmente non si farà molti problemi in tal senso. Aspettera' solo il momento giusto.
briandinazareth Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 Adesso, keres ha scritto: Se ci saranno robot in grado di sopperire all'assenza umana credo che probabilmente non si farà molti problemi in tal senso. Aspettera' solo il momento giusto. l'idea del dominio è una cosa che proiettiamo sulla ia ma appartiene solo agli uomini (e altri animali) e ha a che fare con questioni evolutive e non con l'intelligenza. poi ovviamente una ia potrebbe essere usata per questo, ma non è un naturale sviluppo dell'intelligenza artificiale (per quello che ne sappiamo oggi, naturalmente) nonostante questo i pericoli di non gestire questa rivoluzione potrebbero essere molto grandi per via della debolezza degli uomini di fronte al condizionamento e ad una novità così dirompente che può ingannare chiunque. prima gli sciocchi e i meno preparati, ma non illudiamoci, nessuno è esente. una cosa fondamentale secondo me è la possibilità di sapere sempre e facilmente cosa è stato creato da una ia e cosa è reale (penso ai video, ad esempio)
keres Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 1 minuto fa, briandinazareth ha scritto: idea del dominio è una cosa che proiettiamo sulla ia ma appartiene solo agli uomini (e altri animali) e ha a che fare con questioni evolutive e non con l'intelligenza Qualis Pater talis filius
briandinazareth Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 2 minuti fa, keres ha scritto: Qualis Pater talis filius osservazione appropriata, infatti uno dei pericoli è creare ia troppo simili a noi... comunque ne parlavo prima con mio padre, hal9000 è decisamente più che realistico oggi. kubrick e il geniale clarke hanno centrato moltissimi temi che sembravano lontani solo 5 anni fa. servono le regole di asimov e non bastano.
Membro_0022 Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 Oh oh... https://www.tgcom24.mediaset.it/tgtech/musk-allarme-intelligenza-artificiale-rischio-umanita_62830294-202302k.shtml A lanciare l'allarme è il patron di Tesla con altri 1.000 fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il temuto "scenario Terminator" L'intelligenza artificiale è un'invenzione umana. Come ben sappiamo (ancor più confermato dagli eventi degli ultimi anni) l'uomo è generalmente una immane testa di lk-zz e ha sempre trovato il modo di usare per il male qualsiasi cosa abbia inventato. Non vedo un motivo che sia uno in grado di impedire l'uso per il male anche di questa. Basta "addestrarla" nel modo giusto. Da notare che una IA potrebbe essere ancor più pericolosa della bomba atomica: la bomba atomica ha bisogno di almeno una persona che ne ordini il lancio (ma in molti paesi ne servono almeno due o tre per evitare che "parta il matto"), la IA potrebbe decidere di fare da sola.
keres Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 21 minuti fa, briandinazareth ha scritto: servono le regole di asimov e non bastano Le regole son fatte per essere aggirate, se lo facciamo noi figurati la IA.
briandinazareth Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 Adesso, keres ha scritto: Le regole son fatte per essere aggirate, se lo facciamo noi figurati la IA. in realtà è molto più facile farlo per la ia, basta filtrare l'output e fare un'analisi dell'input. ed è quello che usa già chatgpt per evitare contenuti indesiderati (e pure dall-e e altri generatori di immagini)
keres Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 @briandinazareth Non ci siamo Brian, potrebbe trovare un modo per riprogrammarsi da sola o peggio ancora qualcuno potrebbe fornirglielo. Senza contare che le falle di sicurezza a livello software ci sono sempre state e assumo sempre ci saranno. Non voglio esser pessimista per forza e son certo che pericoli immediati sono ancora lontani, ma... Più sarà consapevole maggiore sarà il rischio.
Messaggi raccomandati