L’intelligenza artificiale (AI) è pericolosa?
Lunedì 22 maggio(May 22) 2023 , un account Twitter verificato chiamato "Bloomberg Feed (Twitter)"(Monday) ha condiviso un tweet in cui si affermava che c'era stata un'esplosione al Pentagono(explosion at the Pentagon) , accompagnato da un'immagine. Se ti stai chiedendo cosa c’entra tutto questo con l’intelligenza artificiale (AI), l’immagine era generata dall’intelligenza artificiale, con il tweet che è diventato rapidamente virale e ha innescato un breve calo del mercato azionario. Le cose sarebbero potute andare molto peggio: un duro promemoria dei pericoli dell’intelligenza artificiale.

Pericoli dell'intelligenza artificiale
Non sono solo le fake news di cui dobbiamo preoccuparci. Esistono molti rischi immediati o potenziali associati all’intelligenza artificiale, da quelli riguardanti la privacy e la sicurezza ai problemi di pregiudizio e copyright. Approfondiremo alcuni di questi pericoli dell’intelligenza artificiale, vedremo cosa viene fatto per mitigarli ora e in futuro e ci chiederemo se i rischi dell’intelligenza artificiale superano i benefici.
Notizie false
Ai tempi in cui i deepfake arrivarono per la prima volta, sorsero preoccupazioni che potessero essere utilizzati con cattive intenzioni. Lo stesso si potrebbe dire per la nuova ondata di generatori di immagini AI(AI image generators) , come DALL-E 2 , Midjourney o DreamStudio . Il 28 marzo(March 28) 2023, false immagini generate dall'intelligenza artificiale di Papa Francesco(AI-generated images of Pope Francis) con indosso un piumino bianco Balenciaga e mentre si godeva diverse avventure, tra cui lo skateboard e il gioco del poker, sono diventate virali. A meno che non si studiassero attentamente le immagini, era difficile distinguere queste immagini dalla realtà.

Mentre l’esempio del Papa è stato senza dubbio un po’ divertente, l’immagine (e il tweet di accompagnamento) sul Pentagono(Pentagon) era tutt’altro. Le immagini false(Fake) generate dall’intelligenza artificiale hanno il potere di danneggiare la reputazione, porre fine a matrimoni o carriere, creare disordini politici e persino iniziare guerre se utilizzate dalle persone sbagliate: in breve, queste immagini generate dall’intelligenza artificiale hanno il potenziale per essere estremamente pericolose se utilizzate in modo improprio.
Con i generatori di immagini AI ora disponibili gratuitamente per chiunque e Photoshop che aggiunge un generatore di immagini AI(Photoshop adding an AI image generator ) al suo popolare software, l’opportunità di manipolare immagini e creare notizie false è più grande che mai.
Privacy, sicurezza e hacking
Anche la privacy e la sicurezza rappresentano enormi preoccupazioni quando si tratta dei rischi dell’intelligenza artificiale, con un certo numero di paesi che già vietano il ChatGPT di OpenAI . L'Italia(Italy) ha vietato il modello per motivi di privacy, ritenendo che non sia conforme al Regolamento generale europeo sulla protezione dei dati(General Data Protection Regulation) ( GDPR ), mentre i governi di Cina(China) , Corea del Nord(North Korea) e Russia lo hanno vietato per paura che potesse diffondere disinformazione.
Allora perché siamo così preoccupati per la privacy quando si tratta di intelligenza artificiale? Le app(AI apps) e i sistemi di intelligenza artificiale raccolgono grandi quantità di dati per apprendere e fare previsioni. Ma come vengono archiviati ed elaborati questi dati? Esiste il rischio reale che violazioni di dati, pirateria informatica e informazioni finiscano nelle mani sbagliate.

Non sono solo i nostri dati personali a essere a rischio. L’hacking dell’intelligenza artificiale è un rischio reale: non è ancora avvenuto, ma se qualcuno con intenti dannosi potesse hackerare i sistemi di intelligenza artificiale, ciò potrebbe avere gravi conseguenze. Ad esempio, gli hacker potrebbero controllare veicoli senza conducente, hackerare sistemi di sicurezza basati sull’intelligenza artificiale per ottenere l’accesso a luoghi altamente sicuri e persino hackerare sistemi d’arma dotati di sicurezza basata sull’intelligenza artificiale.
Gli esperti della DARPA ( Defense Advanced Research Projects Agency ) del (Agency)Dipartimento(US Department) della Difesa degli Stati Uniti riconoscono questi rischi e stanno già lavorando al progetto Guaranteeing AI Robustness Against Deception ( GARD ) della DARPA , affrontando il problema dalle basi. L'obiettivo del progetto è garantire che la resistenza all'hacking e alla manomissione sia integrata negli algoritmi e nell'intelligenza artificiale.
Violazione del diritto d'autore
Un altro dei pericoli dell’intelligenza artificiale è la violazione del copyright. Questo potrebbe non sembrare così grave come altri pericoli che abbiamo menzionato, ma lo sviluppo di modelli di intelligenza artificiale come GPT-4 espone tutti a un rischio maggiore di violazione.

Ogni volta che chiedi a ChatGPT(ChatGPT) di creare qualcosa per te, che si tratti di un post sul blog sui viaggi o di un nuovo nome per la tua attività, gli stai fornendo informazioni che poi utilizza per rispondere a domande future. Le informazioni che ti restituisce potrebbero violare il copyright di qualcun altro, motivo per cui è così importante utilizzare un rilevatore di plagio e modificare qualsiasi contenuto creato dall'intelligenza artificiale prima di pubblicarlo.
Bias sociale e dei dati
L'intelligenza artificiale non è umana, quindi non può essere parziale, giusto? Sbagliato. Persone e dati vengono utilizzati per addestrare modelli di intelligenza artificiale e chatbot(chatbots) , il che significa che dati o personalità distorte si tradurranno in un'intelligenza artificiale parziale. Esistono due tipi di pregiudizi nell’intelligenza artificiale: pregiudizi sociali e pregiudizi relativi ai dati.

Considerati i numerosi pregiudizi presenti nella società di tutti i giorni, cosa succede quando questi pregiudizi diventano parte dell’intelligenza artificiale? I programmatori responsabili dell’addestramento del modello potrebbero avere aspettative distorte, che poi si insinuano nei sistemi di intelligenza artificiale.
Oppure i dati utilizzati per addestrare e sviluppare un’intelligenza artificiale potrebbero essere errati, distorti o raccolti in malafede. Ciò porta a pregiudizi nei dati, che possono essere pericolosi quanto i pregiudizi sociali. Ad esempio, se un sistema per il riconoscimento facciale viene addestrato utilizzando principalmente i volti dei bianchi, potrebbe avere difficoltà a riconoscere quelli appartenenti a gruppi minoritari, perpetuando l’oppressione.
I robot si prendono il nostro lavoro
Lo sviluppo di chatbot come ChatGPT e Google Bard ha fatto emergere una preoccupazione completamente nuova riguardo all’intelligenza artificiale: il rischio che i robot(robots ) possano prendere il nostro lavoro. Stiamo già vedendo gli scrittori nel settore tecnologico sostituiti dall’intelligenza artificiale, gli sviluppatori di software temono di perdere il lavoro a causa dei bot e le aziende che utilizzano ChatGPT per creare contenuti di blog e contenuti sui social media invece di assumere scrittori umani.

Secondo il rapporto The Future of Jobs 2020 del World Economic Forum(World Economic Forum’s The Future of Jobs Report 2020) , si prevede che l’intelligenza artificiale sostituirà 85 milioni di posti di lavoro in tutto il mondo entro il 2025. Anche se l’intelligenza artificiale non sostituirà gli scrittori, è già utilizzata come strumento da molti. Coloro che svolgono lavori a rischio di essere sostituiti dall’intelligenza artificiale potrebbero dover adattarsi per sopravvivere: ad esempio, gli scrittori potrebbero diventare ingegneri tempestivi dell’intelligenza artificiale, consentendo loro di lavorare con strumenti come ChatGPT per(ChatGPT) la creazione di contenuti anziché essere sostituiti da questi modelli.
Potenziali rischi futuri dell’IA
Questi sono tutti rischi immediati o incombenti, ma che dire di alcuni dei pericoli meno probabili ma comunque possibili legati all’intelligenza artificiale che potremmo vedere in futuro? Questi includono cose come l’intelligenza artificiale programmata per danneggiare gli esseri umani, ad esempio armi autonome addestrate per uccidere durante una guerra.

Poi c’è il rischio che l’intelligenza artificiale possa concentrarsi unicamente sul suo obiettivo programmato, sviluppando comportamenti distruttivi nel tentativo di raggiungere quell’obiettivo a tutti i costi, anche quando gli esseri umani cercano di impedire che ciò accada.
Skynet ci ha insegnato cosa succede quando un'intelligenza artificiale diventa senziente. Tuttavia, sebbene l'ingegnere di Google (Google)Blake Lemoine abbia cercato di convincere tutti che LaMDA, il generatore di chatbot artificialmente intelligente di Google, fosse senziente(LaMDA, Google’s artificially intelligent chatbot generator was sentient) nel giugno 2022(June 2022) , per fortuna fino ad oggi non ci sono prove che suggeriscano che sia vero.
Le sfide della regolamentazione dell’IA
Lunedì 15 maggio 202, il CEO di OpenAI Sam Altman ha partecipato alla prima udienza del Congresso sull'intelligenza artificiale(OpenAI CEO Sam Altman attended the first congressional hearing on artificial intelligence) , avvertendo: "Se questa tecnologia va storta, può andare completamente storta". Il CO di OpenAI(OpenAI CO) ha chiarito di essere favorevole alla regolamentazione e ha portato all'udienza molte delle sue idee. Il problema è che l’intelligenza artificiale si sta evolvendo a una tale velocità che è difficile sapere da dove cominciare con la regolamentazione.
Il Congresso(Congress) vuole evitare di commettere gli stessi errori commessi all’inizio dell’era dei social media, e un team di esperti insieme al leader della maggioranza al Senato Chuck Schumer(Senate Majority Leader Chuck Schumer) sta già lavorando su regolamenti che imporrebbero alle aziende di rivelare quali fonti di dati hanno utilizzato per addestrare i modelli e chi. li hanno addestrati. Tuttavia, potrebbe passare del tempo prima che diventi chiaro esattamente come sarà regolamentata l’intelligenza artificiale, e senza dubbio ci saranno reazioni da parte delle società di intelligenza artificiale.
La minaccia(Threat) di un’intelligenza generale artificiale(Artificial General Intelligence)
C'è anche il rischio della creazione di un'intelligenza artificiale generale ( AGI ) in grado di svolgere qualsiasi compito che un essere umano (o un animale) potrebbe svolgere. Spesso(Often) menzionato nei film di fantascienza, probabilmente siamo ancora lontani decenni da una tale creazione, ma se e quando creeremo un'AGI ,(AGI) potrebbe rappresentare una minaccia per l'umanità.
Molti personaggi pubblici sostengono già la convinzione che l’intelligenza artificiale rappresenti una minaccia esistenziale per gli esseri umani, tra cui Stephen Hawking , Bill Gates e persino l’ex CEO di Google Eric Schmidt(Google CEO Eric Schmidt) , che ha affermato: “L’intelligenza artificiale potrebbe comportare rischi esistenziali e i governi devono sapere come assicurarsi la tecnologia non viene utilizzata in modo improprio da persone malvagie.
Quindi, l’intelligenza artificiale è pericolosa e i suoi rischi superano i suoi benefici? La giuria non ha ancora deciso su questo, ma stiamo già vedendo prove di alcuni dei rischi che ci circondano in questo momento. Altri pericoli hanno meno probabilità di realizzarsi in tempi brevi, se non addirittura del tutto. Una cosa però è chiara: i pericoli dell’intelligenza artificiale non dovrebbero essere sottovalutati. È della massima importanza garantire che l’intelligenza artificiale sia adeguatamente regolamentata fin dall’inizio, per ridurre al minimo e, auspicabilmente, mitigare eventuali rischi futuri.
Related posts
Scarica i temi di anteprima della versione di Windows 8 per Windows 7
Come svelare temi regionali nascosti in Windows 7
Novità sui temi di Windows 8? Perché non funzionano in Windows 7?
Fai in modo che Windows 10 inizi con il suono di Windows 7 o versioni precedenti
Scarica i 30 migliori cursori del mouse per Windows
7 fantastiche posizioni di download per temi Windows gratuiti
Come cambiare il tema di Windows 10
7 siti in cui è possibile scaricare icone desktop gratuite per Windows 10
I migliori sfondi per Windows (4K e Full HD) -
Come attivare o disattivare la modalità oscura di Facebook -
Come si attiva l'HDR sul mio computer Windows 10?
Come bloccare i giochi Steam per l'avvio in Windows 10 -
Come utilizzare i cursori e i puntatori del mouse personalizzati in Windows 10
Come creare la tua Jump List personalizzata in Windows 7 e Windows 8.1
Come cambiare lo screen saver in Windows 10: tutto quello che devi sapere -
Come cambiare la lingua su Netflix (7 modi)
Il modo geniale di personalizzare i temi di Windows
Come modificare il tema di Windows 11 -
Come aprire l'overlay Xbox? Qual è la scorciatoia Xbox Game Bar?
Le 7 migliori skin per Windows Media Player 12 nel 2010
