briandinazareth Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 9 minuti fa, keres ha scritto: Non ci siamo Brian, potrebbe trovare un modo per riprogrammarsi da sola o peggio ancora qualcuno potrebbe fornirglielo. in realtà la soluzione non è interna alla ia, perché potrebbe succedere quello che dici, non la riprogrammazione ma semplicemente essendo una black box non sappiamo che succede dentro. quello che si sta sperimentando è un controllo esterno degli input e output. comunque non volevo banalizzare la cosa, perché stiamo ragionando di cosa succederà quando avremo i 747 mentre adesso abbiamo solo l'aereo dei fratelli wright.
Velvet Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 1 ora fa, lufranz ha scritto: l'uomo è generalmente una immane testa di lk-zz e ha sempre trovato il modo di usare per il male qualsiasi cosa abbia inventato. E' la prima cosa che ho pensato quando ho iniziato a leggere di questi sistemi di AI. Sembra che finalmente anche qualcuno con le mani in pasta si stia ponendo gli stessi dubbi pratici ma anche morali della questione. Uno strumento simile, facilmente utilizzabile, in mano a milioni di malintenzionati nel mondo può potenzialmente incenerire il pianeta in poche settimane, Quindi o viene messo sotto strettissimo controllo (un po' come le armi atomiche) oppure è meglio fare una grande retromarcia. Ma temo entrambe le cose siano una chimera, ormai nella diga ci sono molte falle e mi aspetto il peggio.
briandinazareth Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 4 minuti fa, Velvet ha scritto: Quindi o viene messo sotto strettissimo controllo (un po' come le armi atomiche) oppure è meglio fare una grande retromarcia. Ma temo entrambe le cose siano una chimera, ormai nella diga ci sono molte falle e mi aspetto il peggio. hai ragione, sono impossibili entrambe le cose. con 1000 dollari e qualche competenza abbastanza basilare ci si può creare la propria chatgpt, e lo puoi fare in pakistan, corea del nord o in francia. infatti l'appello non è per fermare lo sviluppo, ma per prendersi una pausa per adeguare il resto e creare le contromisure di sicurezza. dubito che si farà, quindi dovremo essere veloci e attivi nelle contromisure. la più semplice sarà avere la propria IA che controllerà e filtrerà il resto... (ovviamente è già in sviluppo) il problema che vedo più grave è quello politico, sembra che nessuno stia capendo quello che sta succedendo.
Velvet Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 3 minuti fa, briandinazareth ha scritto: la più semplice sarà avere la propria IA che controllerà e filtrerà il resto... (ovviamente è già in sviluppo) Scusa ma mi pare un po' poco. Potenzialmente una AI può essere utilizzata per qualsiasi cosa (dai malintenzionati). Dall'influenza sulle masse, specie quelle più povere o meno acculturate, al controllo aereo, alle armi, ai crimini informatici, all'ingerenza nel sistema giudiziario, le mafie... Insomma, è l'ordigno fine di mondo alla portata di tutti per la prima volta nella storia. Mi fa venire in mente il vaso di Pandora che era meglio non scoperchiare, e il fatto che anche un mattoide con pochi scrupoli come Musk si stia preoccupando mi dà da pensare.
briandinazareth Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 5 minuti fa, Velvet ha scritto: Scusa ma mi pare un po' poco. Potenzialmente una AI può essere utilizzata per qualsiasi cosa (dai malintenzionati). Dall'influenza sulle masse, specie quelle più povere o meno acculturate, al controllo aereo, alle armi, ai crimini informatici, all'ingerenza nel sistema giudiziario, le mafie... per questo si stanno creando ia "personali" che filtrano le altre ia, poi se funzionerà lo vedremo, nessuno può saperlo adesso. 6 minuti fa, Velvet ha scritto: il fatto che anche un mattoide con pochi scrupoli come Musk si stia preoccupando mi dà da pensare. quello forse è per la sua nota vendicatività... lui era in open ai prima... mi fanno più pensare altre firme. comunque non penso avrà seguito anche perché la maggior parte della gente (e quindi dei politici) non ne capiscono la portata. vedi anche qui dentro con una platea molto più informata della media. speriamo almeno che il campanello faccia muovere verso le misure di sicurezza. perché la ia potrebbe essere la cosa migliore mai accaduta all'umanità oppure creare una società più conflittuale di quella di oggi, con le conseguenze immaginabili.
tomminno Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 3 ore fa, briandinazareth ha scritto: basta filtrare l'output e fare un'analisi dell'input Eh beh certo metti il classico if in uscita 🤣 Analisi dell'input? Ma se si creano modelli IA per analizzare automaticamente moli di dati non analizzabili con altre tecniche!
tomminno Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 2 ore fa, Velvet ha scritto: Mi fa venire in mente il vaso di Pandora che era meglio non scoperchiare, e il fatto che anche un mattoide con pochi scrupoli come Musk si stia preoccupando mi dà da pensare Si ma la proposta è idiota oltre che nemmeno applicabile. Io lavoro nell'analisi dei video applicata alle auto, ovviamente tramite IA, che dovrei fare smettere di lavorare e fare ricerca per 6 mesi? Fermiamo tutte le università di informatica di questo mondo? I laureandi e dottorandi che fanno?
briandinazareth Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 8 minuti fa, tomminno ha scritto: Eh beh certo metti il classico if in uscita 🤣 Analisi dell'input? Ma se si creano modelli IA per analizzare automaticamente moli di dati non analizzabili con altre tecniche! visto che sei del settore: è chiaro che la selezione dell'input è un casino con l'apprendimento automatico, ma quello che si sta pensando per i modelli stile gpt è di dare un peso diverso a seconda dell'affidabilità delle fonti. mi dirai, come decidi le fonti? in parte con l'apprendimento guidato (ad esempio do un valore elevato alle fonti accademiche e basso a facebook), in parte con un'altra ia che impara da sola le fonti affidabili con un trial and error. sulla selezione in uscita invece il problema è che puoi lavorare solo di censura e probabilmente solo totale... ma c'è un mondo in evoluzione dietro, come ben sai, e ogni giorno nasce una nuova idea o strategia. e la penso come te sul fatto che sia impossibile mettere in pausa lo sviluppo, è già tanto se la sola gpt avrà aggiornamenti più lenti.
tomminno Inviato 29 Marzo 2023 Inviato 29 Marzo 2023 45 minuti fa, briandinazareth ha scritto: è chiaro che la selezione dell'input è un casino con l'apprendimento automatico Ci sono tecniche supervisionate e non supervisionate per l'apprendimento. In quelle non supervisionate la IA impara da sola, ma cosa impara? nei giochi le regole sono certe e fisse, è "facile". Riconoscimento di anomalie statistiche nei dati è "fattibile". Insomma se c'è dietro matematica e logica si fa. Se devi cercare di capire se un pedone sul marciapiede attraverserà la strada, è molto più complesso e infatti la guida di livello 5 ancora non c'è. Non vorrai mica frenare solo perché c'è un pedone in vista! E allora aggiungi algoritmi di tracking predittivo. Ma quanti "bersagli" insegui? Tutti? Cosa significa tutti? I piccioni magari non mi interessano, ma cani, cinghiali, persone, veicoli si. Eh però a volte ci sono oggetti "non identificati", un cancello che si apre, transenne, buche per lavori, ostacoli per strada... Come selezioni i "bersagli" da inseguire? I "bersagli" cosa sono e qual è il loro comportamento dinamico? Una bici non è un pedone. Chi o cosa mi ha insegnato qual è il comportamento di una bici rispetto ad un pedone? C'è un limite (come la Moskva) il tutto in un'auto dove non è che hai carrettate di GPU per fare i conti. 45 minuti fa, briandinazareth ha scritto: ma quello che si sta pensando per i modelli stile gpt è di dare un peso diverso a seconda dell'affidabilità delle fonti Ma anche qui, stackoverflow è molto affidabile parlando di programmazione, ciò non toglie che dentro ci siano tante castronerie. Riuscire a distinguere il buono dal meno buono è difficile anche per un essere umano. Generalmente uno prova, se va bene, bene, se non va cerchi il prossimo quesito sull'argomento 😅 Da qui le lamentele per le soluzioni suggerite da chatgpt.
Velvet Inviato 30 Marzo 2023 Inviato 30 Marzo 2023 E quindi la soluzione quale sarebbe? Già l'utilizzo della AI nella gestione dei sistemi di sorveglianza e riconoscimento biometrico (come in Cina ad esempio) sta sollevando preoccupazioni un po' in tutto il mondo libero per la sua invasività e capacità di schedatura costante di ogni individuo. Figuriamoci le AI infilate a muzzo un po' ovunque come il prezzemolo senza regole precise e stringenti. Regole e limiti che dovrebbero essere non di tipo meramente tecnico/ingegneristico ma ben più elevate in un'ottica morale, umanistica e sociale.
ferdydurke Inviato 30 Marzo 2023 Inviato 30 Marzo 2023 Magari l'intelligenza artificiale sarà una benedizione per tutti, magari sarà talmente intelligente da avere un proprio codice etico che le impedirà qualsiasi azione moralmente cattiva, magari agirà razionalmente a differenza degli uomini...in fondo la stessa coscienza umana è solo un frutto dell'evoluzione, niente vieta che la stesso cosa si possa sviluppare in una macchina complessa...io sono ottimista, visto le nefandezze di cui l'uomo è capace
Membro_0022 Inviato 30 Marzo 2023 Inviato 30 Marzo 2023 12 minuti fa, ferdydurke ha scritto: io sono ottimista, visto le nefandezze di cui l'uomo è capace Io no perchè l'intelligenza artificiale è "addestrata" dallo stesso nefando essere di cui sopra. E' poco probabile che il creato possa risultare migliore del creatore.
Paolo 62 Inviato 31 Marzo 2023 Inviato 31 Marzo 2023 Un computer può essere intelligentissimo ma se non ha modo di mettere in pratica le sue decisioni è completamente innocuo.
keres Inviato 31 Marzo 2023 Inviato 31 Marzo 2023 31 minuti fa, Paolo 62 ha scritto: se non ha modo di mettere in pratica Il - se non ha modo - e' quello che in ottica futura preoccupa.
audio2 Inviato 31 Marzo 2023 Inviato 31 Marzo 2023 magari poi diventa una roba che intuba quelli della p.a. proprio come matrix quindi arriva l' energia e allora chat gpt + l' i.a. cominciano a sfornare carte e documenti come se non ci fosse un domani. chi lo sa
Velvet Inviato 31 Marzo 2023 Inviato 31 Marzo 2023 Ho come la sensazione sia sparita tutta una serie di post recenti da questa discussione.... Chiedendomi il motivo ho anche già la risposta: la Ai non vuole si parli male di lei
ninomau Inviato 31 Marzo 2023 Autore Inviato 31 Marzo 2023 Intanto le università si stanno attrezzando con software AI che identificano le risposte fornite dagli studenti che utilizzano ChatGpt. E’ già AI contro AI ….
Messaggi raccomandati