neroacustico Inviato 9 Dicembre 2023 Inviato 9 Dicembre 2023 Dopo gli enormi capitali investiti dai big del mondo, la nostra piccola Europa ("matrigna" per alcuni) produce questo primo tentativo per regolamentare quella che si prefigura come un fenomeno rivoluzionario, al pari di quello che è stata la rivoluzione industriale. https://www.ansa.it/sito/notizie/mondo/2023/12/09/intesa-ue-per-la-legge-sullintelligenza-artificiale_d88a36d3-0b8c-457e-99ff-cd3a27dd7ccc.html Dopo un negoziato fiume di oltre 36 ore, le istituzioni Ue hanno raggiunto l'accordo sull'AI Act, la legge europea sull'intelligenza artificiale. Si tratta del primo quadro normativo sui sistemi di IA nel mondo. Lo annuncia in un tweet il commissario europeo al Mercato Interno, Thierry Breton. Obiettivo della normativa è garantire che l'IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, stimolando al tempo stesso l'innovazione e rendendo l'Europa leader nel settore. I negoziatori hanno concordato una serie di salvaguardie e ristrette eccezioni per l'uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico a fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. L'RBI "post-remoto" verrebbe utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave. I sistemi di identificazione biometrica "in tempo reale" sarebbero conformi a condizioni rigorose e il loro uso sarebbe limitato nel tempo e nel luogo, ai fini di: ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica specifica e attuale, o localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (tra cui terrorismo, traffico di esseri umani, omicidio, stupro). Quanto alle pratiche vietate, la lista dei divieti include i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale. il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il social scoring; le tecniche manipolative; l'IA usata per sfruttare le vulnerabilità delle persone. I sistemi di identificazione biometrica "in tempo reale", si legge ancora, sarebbero conformi a condizioni rigorose e il loro uso sarebbe limitato nel tempo e nel luogo, ai fini di: ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica specifica e attuale, o localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (tra cui terrorismo, traffico di esseri umani, omicidio, stupro). L'accordo prevede, inoltre, una serie di obblighi per i sistemi ad alto rischio, tra cui quello di una valutazione dell'impatto sui diritti fondamentali. In questa categoria saranno inseriti anche i sistemi di IA usati per influenzare l'esito delle elezioni e il comportamento degli elettori. I cittadini, poi, avranno il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate sui sistemi di IA ad alto rischio che hanno un impatto sui loro diritti. Altro punto fondamentale riguarda i guardrail per i sistemi di IA generale, e in particolare per quelli ad alto impatto con rischio sistemico, per cui sono previsti obblighi più stringenti che vanno dalla valutazione del modello, alla valutazione e mitigazione dei rischi sistemici, alla protezione della sicurezza informatica. Il testo include infine misure a sostegno dell'innovazione e delle Pmi e un regime di sanzioni, con multe che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l'1,5% del fatturato, a seconda della violazione e delle dimensioni dell'azienda.
Roberto M Inviato 9 Dicembre 2023 Inviato 9 Dicembre 2023 Ho paura che sia l’ennesimo atto di masochismo tafazziano, noi imbrigliamo la ricerca e penalizziamo le aziende che eviteranno l’Europa come la peste, con la Cina che gode. Un film già visto con il suicidio del green-deal.
Jack Inviato 9 Dicembre 2023 Inviato 9 Dicembre 2023 E ti pareva che la UE non si presentava a mettere regolamenti, articoli, paletti e relative multe draconiane
neroacustico Inviato 10 Dicembre 2023 Autore Inviato 10 Dicembre 2023 1 ora fa, Roberto M ha scritto: magari le facesse anche rispettare
briandinazareth Inviato 10 Dicembre 2023 Inviato 10 Dicembre 2023 è fondamentale per i diritti fondamentali dell'individuo che ci siano dei limiti, come quelli previsti sul riconoscimento biometrico. non ha niente a che fare con la ricerca, che non è limitata da questo. qui ancora in tanti non si stanno rendendo conto di quello che sta accadendo e dell'impatto sul mondo della ia. 2
Roberto M Inviato 11 Dicembre 2023 Inviato 11 Dicembre 2023 @appecundria Questo è proprio il tuo campo professionale specifico, in cui sei qui dentro quello più autorevole per intervenire. Invece non leggo ancora niente, facci sapere la tua opinione.
Roberto M Inviato 11 Dicembre 2023 Inviato 11 Dicembre 2023 18 ore fa, briandinazareth ha scritto: è fondamentale per i diritti fondamentali dell'individuo che ci siano dei limiti, come quelli previsti sul riconoscimento biometrico. Si, ma se il "riconoscimento biometrico" lo fa come se non ci fosse un domani la Cina, poi ce lo insinua con huawey, tic tok e penēs vari a noi e poi la vende pure alla Russia e all'Iran significa che come al solito ci facciamo del male da soli. Ed in questo caso veramente tanto male. Non vorrei assistere ad uno scenario del tipo "il mondo dietro di te" per il nostro oramai leggendario masochismo.
briandinazareth Inviato 11 Dicembre 2023 Inviato 11 Dicembre 2023 29 minuti fa, Roberto M ha scritto: Si, ma se il "riconoscimento biometrico" lo fa come se non ci fosse un domani la Cina lo facciamo pure noi, si mettono solo dei limiti sul cosa lo si può usare, tipo, la polizia non può avere gli occhiali per fare il riconoscimento biometrico su tutte le persone che vede. è quel genere di diritto individuale che ci differenzia dalla cina, e sarebbe bello che non fossimo noi ad andare in quella direzione. poi possiamo discutere delle singole norme e dei regolamenti, ma delle regole occorrono, siamo già in tremendo ritardo per cercare, per quanto possibile, di controllare quell che volgiamo che la ia comporti per le nostre società.
artepaint Inviato 11 Dicembre 2023 Inviato 11 Dicembre 2023 20 ore fa, briandinazareth ha scritto: qui ancora in tanti non si stanno rendendo conto di quello che sta accadendo e dell'impatto sul mondo della ia. personalmente vorrei avere qualche lustro di meno . . . . . per vedere l'effetto che fa tra 20/30 anni (i sauternes 2010 buoni fino al 2050 li ho già in cantina)
appecundria Inviato 11 Dicembre 2023 Inviato 11 Dicembre 2023 @Roberto M le regole non mancano nemmeno negli USA, comunque lo ritengo un fattore del tutto secondario per la competitività, almeno in questo campo. E' molto più importante la disponibilità di capitale di rischio. Pensa che OpenAi (l'azienda che fa ChatGPT) non ha ancora fatturato un dollaro e ha raccolto 13 miliardi di USD di investimenti. Anthropic, che ancora non ha messo a punto nulla, ha ricevuto un investimenti per 6 miliardi di dollari. La corrispondente europea Aleph Alpha, è a 500 milioni di euro... che per l'Europa è un record. Capirai che milioni contro miliardi è come la storia dell'uomo con la pistola che incontra l'uomo col fucile...
appecundria Inviato 11 Dicembre 2023 Inviato 11 Dicembre 2023 3 ore fa, briandinazareth ha scritto: la polizia non può avere gli occhiali per fare il riconoscimento biometrico su tutte le persone che vede https://deepnude.ca/ 2
Roberto M Inviato 11 Dicembre 2023 Inviato 11 Dicembre 2023 @appecundria Nei miei due settori di interesse (quello giuridico e quello fotografico) ho avuto due esperienze nettamente contrastanti con l’intelligenza artificiale. 1) settore giuridico Chat GTP ad una domanda banale (che con una mia banca dati professionale, usata da tutti gli avvocati e i giudici “juris data”, ho risolto in cinque minuti) prima ha risposto proprio a pēnis, poi ha addirittura frainteso il riferimento normativo, e nonostante due secondi domande ha continuato a sbagliare. In una parola: inutilizzabile. 2) settore forografico Adobe Photoshop 2024 ultima versione 25.2 (in abbonamento annuale a cifra ridicola di o10 euro al mese) rispetto alla precedente versione senza AI ha fatto un progresso da fantascienza proprio, epocale, neanche immaginabile in sogno, rispetto alle evoluzioni di questo programma che ci sono state dal 2013 ad oggi, negli ultimi 10 anni. Quoto anche @Velvet per vedere se pure lui ha avuto la stessa impressione, soprattutto sulle funzioni “selezione” e “riempimento generativo”.
Roberto M Inviato 11 Dicembre 2023 Inviato 11 Dicembre 2023 Ps: non sono a rischio le professioni, neanche quella del fotografo. Se uno e’ un cane a fotografare in ripresa poi e’ un cane pure quando usa Photoshop e l’AI.
Roberto M Inviato 11 Dicembre 2023 Inviato 11 Dicembre 2023 49 minuti fa, appecundria ha scritto: Capirai che milioni contro miliardi è come la storia dell'uomo con la pistola che incontra l'uomo col fucile... A me non preoccupano gli USA che poi la condividono con noi quella tecnologia (vedi vaccini Pfizer e Moderna), mi preoccupano i cinesi. Pure quelli investono un sacco di soldi e sono molto potenti, vedi Tick Tock e Huawei.
Velvet Inviato 12 Dicembre 2023 Inviato 12 Dicembre 2023 19 ore fa, Roberto M ha scritto: Adobe Photoshop 2024 ultima versione 25.2 (in abbonamento annuale a cifra ridicola di o10 euro al mese) rispetto alla precedente versione senza AI ha fatto un progresso da fantascienza proprio, epocale, neanche immaginabile in sogno, rispetto alle evoluzioni di questo programma che ci sono state dal 2013 ad oggi, negli ultimi 10 anni. A dire il vero la precedente versione era già integrata con AI (i filtri neurali ecc). Diciamo che è sicuramente migliorata ma la AI di photoshop è addestrata su una certa tipologia di immagini, tipicamente outdoor, paesaggio, sfondi poco uniformi. Ho fatto un test al volo ora per risponderti (gli automatismi di selezione in pratica non li utilizzo mai) su una tipica situazione studio/fashion/interior ecc e come prevedevo purtroppo è cascato l'asino, la selezione del (o dei) soggetti era piena di imperfezioni e "invenzioni" tanto da rendere la maschera inutilizzibile. E non parlo di immagini complesse o nelle quali sia difficile individuare e tracciare il soggetto, bensì di queste due robe qua (questi sono gli screenshot dei RAW non lavorati): Magari funzionasse davvero, risparmierebbe un sacco di ore di tracciati.
Messaggi raccomandati