Google ora non menziona più l’impegno a «non utilizzare l’intelligenza artificiale per le armi»

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Prestito condominio

per lavori di ristrutturazione

 


Google cambia rotta e apre alla possibilità di utilizzare l’AI anche a scopi militari? Il nuovo documento «Principle AI» non riporta più le precedenti restrizioni. E intanto la sezione AI guidata dal nobel Hassabis aderisce alle regole dell’agenzia governativa Nist

Google nelle scorse ore ha cambiato le sue linee guida etiche sulle applicazioni dell’intelligenza artificiale, ovvero gli AI Principles. A leggere quanto è pubblicato sul web, il cambio di rotta lascia aperta la possibilità che questo sfoci in destinazioni d’uso militari. In precedenza era una clausola di esclusione posta dal fondatore di DeepMind, Demis Hassabis, oggi leader dell’AI di Google, che poneva un veto proprio per questi scopi, prima che Google acquisisse la sua azienda. 
Un cambio di rotta che segue il trend di numerose realtà tecnologiche dall’insediamento di Trump alla Casa Bianca, che tra le prime mosse ha deciso anche di eliminare tutte le linee sull’AI promosse dall’amministrazione Biden-Harris.

Finanziamo agevolati

Contributi per le imprese

 

L’AI Principles

Le policy di Google risalgono al 2018 e nelle voci all’interno del documento riferivano che l’AI sarebbe stata esclusa da applicazioni in grado di generare danni complessivi. Ma questa frase è stata rimossa, lasciando intendere che ora l’azienda tiene l’uscio socchiuso alla possibilità di utilizzare la propria tecnologia in ambito militare, di sorveglianza o nelle armi. Le restrizioni rientravano nella sezione chiamata «Applicazioni che non perseguiremo». L’aggiornamento è avvenuto questo martedì. Tuttavia, il testo integrale dei Principi di Google in ambito AI, resta ancora online e consultabili nel blogpost del Ceo di Google, Sundar Pichai, del 7 giugno 2018. E anche in un altro documento ancora online, ci sono tutti i punti originali, prima del cambiamento recente. 




















































Nella vecchia versione integrale delle AI Principles, vi era scritto:
Applicazioni di IA che non perseguiremo:
(…) non progetteremo o implementeremo l’IA nelle seguenti aree di applicazione:

1. Tecnologie che causano o potrebbero causare danni complessivi. Laddove vi sia un rischio materiale di danno, procederemo solo laddove riteniamo che i benefici superino sostanzialmente i rischi e incorporeremo i vincoli di sicurezza appropriati.

2. Armi o altre tecnologie il cui scopo principale o implementazione è causare o agevolare direttamente lesioni alle persone.

3. Tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando le norme accettate a livello internazionale.

4. Tecnologie il cui scopo contravviene ai principi ampiamente accettati del diritto internazionale e dei diritti umani.

Interessante notare che, al termine del documento, vi era il disclaimer: «Con l’approfondirsi della nostra esperienza in questo spazio, questo elenco potrebbe evolversi». Probabilmente pochi si aspettavano che l’elenco si sarebbe accorciato, invece di allungarsi.

L’aggiornamento

A rendere noto dell’update, senza menzionare le implicazioni in ambito militare (ma a lasciarle intendere dietro un linguaggio «aziendalese», il co-founder di Google DeepMind, Demis Hassabis (già Nobel per la Chimica, lo abbiamo intervistato qui) e responsabile AI di Google, insieme a James Manyika, vicepresidente senior per la tecnologia e società. Nel nuovo documento, pubblicato il 4 febbraio, Hassabis e Manyika riferiscono che «i nostro Responsible AI Progress Report è ora basato sul NIST Risk Management Framework degli Stati Uniti . La nostra esperienza e ricerca degli ultimi anni, insieme all’intelligence sulle minacce, all’esperienza e alle best practice che abbiamo condiviso con altre aziende di intelligenza artificiale, hanno approfondito la nostra comprensione del potenziale e dei rischi dell’intelligenza artificiale». E ancora: «Crediamo che aziende, governi e organizzazioni che condividono questi valori dovrebbero lavorare insieme per creare un’IA che protegga le persone, promuova la crescita globale e supporti la sicurezza nazionale».
Nel nuovo documento, tuttavia si legge che tra gli obiettivi vi sono «Implementare adeguati meccanismi di supervisione umana, due diligence e feedback per allinearsi agli obiettivi degli utenti, alla responsabilità sociale e ai principi ampiamente accettati del diritto internazionale e dei diritti umani».

Assistenza per i sovraindebitati

Saldo e stralcio

 

Cos’è il Nist e cos’è il framework

Il Nist (National Institute of Standards and Technology) è un’agenzia del Dipartimento del Commercio degli Stati Uniti, responsabile dello sviluppo di standard e linee guida per la sicurezza informatica e la gestione del rischio tecnologico. Fornisce supporto alle organizzazioni pubbliche e private per migliorare la protezione dei sistemi informatici e dei dati sensibili. Il Risk Management Framework (RMF) è un processo strutturato sviluppato dal Nist per la gestione dei rischi legati alla sicurezza delle informazioni, cioè «una guida per gestire i rischi associati all’IA per individui, organizzazioni e società». Questo framework aiuta le organizzazioni a identificare, valutare e mitigare i rischi associati ai loro sistemi informatici, al fine di garantire la conformità agli standard di sicurezza federali degli Stati Uniti. Il RMF prevede sei fasi principali: categorizzazione, selezione, implementazione, valutazione, autorizzazione e monitoraggio continuo dei controlli di sicurezza.

Per quanto riguarda le applicazioni in ambito AI, l’obiettivo dell’agenzia è garantire che l’AI sia affidabile, sicura e responsabile, con meno rischi. Il documento Ai Rmf è pensato per aziende, governi e istituzioni per individuare i rischi dell’AI. I passaggi fondamentali sono le regole per la gestione dell’AI in ambito governativo, in ambito mappe e deve misurare gli effetti dell’AI e del livello di sicurezza. Inoltre, sono pensate strategie per migliorare il sistema e «ridurre i rischi». 
Tra i punti più importanti, il Nist riporta la trasparenza e che l’AI deve essere comprensibile e verificabile, che debba ridurre il rischio di bias o «decisioni automatizzate potenzialmente ingiuste». Infine, i sistemi AI devono essere progettati per resistere ad attacchi e manipolazioni esterne. Il problema? Le linee guida del framework non sono obbligatorie

Chi è Demis Hassabis e il veto imposto a Google

Demis Hassabis è un neuroscienziato, programmatore e imprenditore britannico, noto per essere il co-fondatore di DeepMind, una delle aziende leader nel settore dell’intelligenza artificiale, e premiato con il Nobel per la Chimica nel 2024. DeepMind è stata fondata nel 2010 con l’obiettivo di sviluppare algoritmi avanzati di apprendimento automatico e intelligenza artificiale generale. Nel 2014, Google ha acquisito DeepMind per circa 500 milioni di dollari, al fine di consolidare la propria posizione nel campo dell’IA. L’acquisizione è stata accompagnata da un accordo etico che stabiliva che la tecnologia di DeepMind non sarebbe mai stata utilizzata per applicazioni militari o di sorveglianza. Dopo l’acquisizione, DeepMind ha continuato a operare come un’entità indipendente all’interno di Google, contribuendo a progetti chiave, tra cui lo sviluppo di AlphaGo, il primo sistema AI in grado di sconfiggere un campione umano nel gioco del Go. In un’intervista a Wired, Hassabis affermò che per acquisire DeepMind, Google avrebbe dovuto accettare la condizione che l’azienda istituisse una sorta di comitato etico per l’intelligenza artificiale, ovvero «Un comitato consultivo indipendente come hanno in altre aree». 

In un passo cruciale dell’intervista, Hassabis ha riferito: «Penso che l’intelligenza artificiale potrebbe cambiare il mondo, è una tecnologia incredibile. Tutte le tecnologie sono intrinsecamente neutrali, ma possono essere usate per il bene o per il male, quindi dobbiamo assicurarci che vengano usate in modo responsabile. Io e i miei co-fondatori lo pensiamo da molto tempo. Un’altra attrazione di Google era che anche loro avevano una forte convinzione in queste cose». E continua: «Un vincolo che abbiamo, che non faceva parte di un comitato ma dei termini di acquisizione, è che nessuna tecnologia proveniente da Deep Mind verrà utilizzata per scopi militari o di intelligence».

Lo scorso novembre, intervistato da Davide Casati sul Corriere, alla domanda se l’AI potesse diventare un rischio per la specie umana, il Premio Nobel ha risposto: ««Da qui a cinque, dieci anni, i sistemi di AI saranno più potenti e autonomi. Saranno più utili: ma dovremo lavorare ancora di più su temi che già ora stiamo portando al centro della discussione. La controllabilità di un sistema, la sua interpretabilità, i sistemi di valori alla base, i sistemi di controllo e gestione».

Non un’esclusiva Google

Le Big Tech (leggasi Microsoft e Amazon e altri), hanno da tempo stretto una partnership con il Pentagono. OpenAI infatti ha dichiarato che avrebbe collaborato con il produttore militare Anduril per sviluppare la tecnologia per il Pentagono, ma di recente ha anche condiviso la propria visione sull’AI in seguito all’arrivo del nuovo inquilino nello Studio Ovale. Anche Google, già nel 2018, ha avviato una collaborazione per il Pentagono, per via della quale diversi dipendenti si sono licenziati. Altri licenziamenti, nel 2024, per via della contrarietà della collaborazione tra Google e Israele.

Il commento 

Si conclude così il blogpost che annuncia l’aggiornamento :«Mentre andiamo avanti, crediamo che i miglioramenti apportati nell’ultimo anno alla nostra governance e ad altri processi, al nostro nuovo Frontier Safety Framework e ai nostri AI Principles ci posizionino bene per la prossima fase della trasformazione dell’AI. L’opportunità dell’AI di assistere e migliorare la vita delle persone in tutto il mondo è ciò che in ultima analisi ci spinge in questo lavoro e continueremo a perseguire il nostro approccio audace, responsabile e collaborativo all’AI». Abbiamo contattato per e-mail i responsabili degli AI Principles di Google, per un commento. Non abbiamo ancora ricevuto risposta. 

Finanziamo agevolati

Contributi per le imprese

 

5 febbraio 2025 ( modifica il 5 febbraio 2025 | 15:21)

Microcredito

per le aziende

 



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link