L’ AI Safety Institute, un progetto del Regno Unito per analizzare i nuovi tipi di Intelligenza Artificiale ed esplorarne eventuali rischi compresi danni sociali come, pregiudizi e disinformazione.
Ieri 1 Novembre 2023 segna una data importante nel mondo dell’AI:
all’AI Safety Summit è stata firmata la dichiarazione di Bletchley per lo sviluppo sicuro dell’intelligenza artificiale.
Secondo il premier britannico segna l’inizio di un nuovo sforzo globale per costruire la fiducia del pubblico nell’intelligenza artificiale garantendo che sia sicura.
All’evento mondiale anche la partecipazione della Cina, la cui regolamentazione dell’Intelligenza Artificiale, come ne parlavano in un precedente articolo, è entrata in vigore lo scorso 15 agosto.
Il progetto AI Safety Institute
L’annuncio della nascita del primo istituto per la sicurezza dell’intelligenza artificiale al mondo era già stato dato dal primo ministro britannico, Rishi Sunak in vista del vertice globale sull’Intelligenza Artificiale di fine ottobre 2023.
Il progetto prevede di istituire un gruppo di esperti globale, nominato dai Paesi e dalle organizzazioni partecipanti al vertice per pubblicare un rapporto costantemente aggiornato sullo stato dell’Intelligenza Artificiale.
Nel suo discorso il premier Rishi Sunak aveva parlato dei rischi a cui possiamo andare incontro ma anche delle opportunità che si possono aprire utilizzando le tecnologie basate sugli algoritmi di machine learning.
L’AI – ha concluso il premier britannico – può anche aiutarci a risolvere alcune delle più grandi sfide sociali del nostro tempo può aiutarci a raggiungere finalmente la promessa della fusione nucleare, fornendo un’abbondante energia pulita a basso costo e praticamente senza emissioni.
Sicurezza ma anche fiducia verso queste tecnologie.
Termini come chatbot, voicebot, AI generativa, Ai conversazionale sono entrati ormai a far parte del nostro quotidiano. Regolamentare significa includerle in un piano positivo per un futuro migliore.