Continuano gli sforzi USA per il controllo sull’Intelligenza Artificiale. Dagli Stati Uniti il recente annuncio dell’Amministrazione Biden-Harris del nuovo ruolo del Dipartimento del Commercio degli Stati Uniti. Già designati per il controllo dell’IA, ora, attraverso il National Institute of Standards of Technology (NIST) istituirà l’US Artificial Intelligence Safety Institute, al fine di guidare gli sforzi del governo USA sulla sicurezza e l’Intelligenza Artificiale. L’USAISI sosterrà le responsabilità assegnate al Dipartimento del Commercio ai sensi dello storico ordine esecutivo firmato dal presidente Biden all’inizio di questa settimana, mentre quest’oggi e fino a domani, i leader mondiali e personalità legate all’Intelligenza Artificiale, sono impegnate nel corso dell’AI Summit 2023 in corso in queste ore nel Regno Unito a Bletchley Park, a nord di Londra.
Embed from Getty ImagesLa nuova organizzazione statunitense dovrà facilitare lo sviluppo di standard per la sicurezza, protezione e il test dei modelli di IA. Inoltre, fornirà ambienti di test affinché i ricercatori possano valutare i rischi emergenti dell’IA e affrontarne gli impatti noti. USAISI, insieme al NIST sfrutterà competenze esterne anche tramite la collaborazione del mondo accademico, industriale governativo e della società civile, per promuovere la sicurezza dell’IA. La collaborazione vedrà anche enti di paesi alleati, come la britannica AI Safety Institute. L’annuncio avviene in concomitanza con l’AI Safety Summit 2023 nel Regno Unito, in cui partecipano Segretario al Commercio americano Gina Raimondo e la Vicepresidente USA, Kamala Harris. Sempre negli USA, tempo addietro, era già stata istituita una task force, mentre l’UE ha proposto l’AI ACT.
Per l’Italia al vertice è presente il ministro per le imprese e il Made in Italy, Alfredo Urso. Interpellato dai cronisti, ha riferito che “Per governare il fenomeno dell’AI occorre prevedere, come ha fatto il presidente USA Biden e come sta avvenendo in ambito UE, normative vincolanti sui sistemi complessi che assicurino un’adeguata analisi preventiva dei rischi e di possibili attività di mitigazione, l’individuazione delle responsabilità degli attori coinvolti, il rispetto della proprietà intellettuale e della privacy. Importante mi sembra anche la decisione del primo ministro UK Sunak di istituire un Istituto per la sicurezza delle AI“
Embed from Getty ImagesTra i partecipanti anche Elon Musk, che come più volte affermato in passato, vede opportunità sì, ma anche minacce e rischi, in ambito Intelligenza Artificiale. Secondo Musk serve “un’arbitro” per quella che ritiene una delle più grandi minacce per l’umanità. L’arbitro menzionato dal proprietario di X, come da lui affermato, deve essere indipendente e che possa osservare ciò che le aziende di IA stanno sviluppando e dare un allarme in caso di preoccupazioni.
Embed from Getty ImagesNel corso del summit, è stata firmata la Dichiarazione di Bletchley. L’impegno della dichiarazione, firmata da più Paesi, prende in considerazione le capacità dell’IA, la quale ha il potenziale di trasformare positivamente vari settori, ma presenta anche rischi come minacce alla sicurezza e disinformazione. L’accordo vede cruciale lo sviluppo e un uso dell’IA in maniera responsabile, con un focus sull’essere umano. La collaborazione internazionale può aiutare a gestire questi rischi, sottolineando l’importanza della governance. Gli sviluppatori di IA devono assicurarsi che i loro sistemi siano sicuri, trasparenti e affidabili.
Leave a Reply