Analisi del rischio per l’AI non decide solo l’algoritmo

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Finanziamenti e agevolazioni

Agricoltura

 


Due settimane fa a Parigi si è tenuto un summit sul futuro dell’Intelligenza artificiale, in molti hanno partecipato, tra leader politici, amministratori di aziende e professori e ricercatori universitari. I molteplici interventi possono essere suddivisi in due diverse visioni. La prima che non vorrebbe regole nello sviluppo nell’innovazione di questa tecnologia, la seconda opposta, che invece chiede l’introduzione di limiti ragionevoli nell’uso di questa nuova tecnologia per proteggere i diritti umani. Personalmente condivido la seconda, non si può lasciare lo sviluppo di nuove tecnologie senza regole. Pensate sia possibile usare la dinamite senza regole e senza precauzione? L’intelligenza artificiale se usata male può essere pericolosa quanto la dinamite, anche se non esplode. L’Europa si è data una legge con l’AI Act basata sull’analisi del rischio della pericolosità, per una tecnologia sicura in grado di proteggere i diritti fondamentali delle persone e prevenire abusi. Ad esempio, alcune pratiche giudicate a rischio inaccettabile sono quelle che sfruttano le vulnerabilità come l’età, la disabilità o lo status socio-economico per influenzare il comportamento. Vogliamo soprassedere a questa regola solo per dar modo alle aziende del settore di sviluppare innovazione? Io no.

Pensate ai danni che può provocare nei più giovani, nei meno esperti, nei più fragili. Sono anche giudicati a rischio inaccettabile quei sistemi capaci di classificare gli individui in base ai dati biometrici per dedurre la razza, le opinioni politiche, l’appartenenza sindacale, il credo religioso, la vita sessuale o l’orientamento sessuale. Così come sono a rischio inaccettabile quei sistemi che deducono le emozioni nei luoghi di lavoro, nelle scuole, nelle aule delle nostre università, oppure capaci di valutare o prevedere il rischio di un individuo di commettere un reato basandosi sui tratti di personalità e caratteristiche correlate, con l’assurdo di arrestare una persona anche se non ha commesso nessun reato, ma solamente perché un sistema ha previsto con una certa probabilità che potrà accadere. Volete vivere in un mondo in cui tutto ciò accada? Io no.

Finanziamenti e agevolazioni

Agricoltura

 

Pensate al rischio che correte di essere arrestati ogni volta che guardate male una persona a voi antipatica. Il summit si è concluso con la sottoscrizione di una dichiarazione finale per una intelligenza artificiale più inclusiva, aperta ed etica, oltre che rispettosa dei diritti fondamentali delle persone.

Un punto di equilibrio fra la protezione dei diritti umani e la promozione dell’innovazione digitale, senza rischiare di frenare lo sviluppo economico e tecnologico. Solo il Regno Unito e gli USA non hanno sottoscritto la dichiarazione finale trovando la regolamentazione un freno per lo sviluppo tecnologico. Solo l’Europa per ora ha introdotto con l’AI Act regole condivise con il rischio di rallentare lo sviluppo rispetto a quei paesi in cui le regole non valgono. Per ovviare a questo l’Europa ha presentato un ambizioso progetto, InvestAI, un partenariato pubblico-privato da 200 miliardi di euro, un investimento paragonabile a quello che portò nel 1954 alla fondazione del European Organization for Nuclear Research, il Cern di Ginevra. Creare una struttura per attirare i più bravi ricercatori, investire su progetti ambiziosi per diventare di stimolo e di esempio per tutti quelli che nel mondo sviluppano l’intelligenza artificiale, un po’ come è stato il Cern per la fisica nucleare. Sarà una grande scommessa da vincere, ma è l’unica possibilità. Certo, l’assenza di regole semplifica lo sviluppo, innesca l’innovazione, aumenta i guadagni di chi detiene queste tecnologie, ma la nostra libertà diventerà sempre più a rischio e con essa il nostro benessere. Perché scegliere tra le diverse possibilità politiche quella che ci deve governare? Facciamolo scegliere all’algoritmo di intelligenza artificiale! Ad esempio, per la scelta del nuovo Presidente della Regione Marche, piuttosto che andare a votare, facciamolo scegliere all’algoritmo, ottimizzando indici di performance quali il miglioramento del Servizio sanitario pubblico. Ma se poi l’algoritmo sbaglia e il nuovo Presidente non ci piace forse non avremo più la possibilità di cambiarlo.

*Dipartimento di Ingegneria dell’informazione Facoltà

di Ingegneria Università Politecnica delle Marche





Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Prestito condominio

per lavori di ristrutturazione