Cerca
Close this search box.

Il magazine dedicato alla sicurezza e all'innovazione tecnologica

Cerca
Close this search box.

di:  

L'intelligenza artificiale generativa sta diventando un nuovo strumento di disinformazione?

L’intelligenza artificiale generativa sta diventando un nuovo strumento di disinformazione?

Fake news, deepfake, immagini fuorvianti: tutto questo può essere creato grazie all’intelligenza artificiale. Ecco come l’intelligenza artificiale permette di diffondere la disinformazione.

L’intelligenza artificiale (IA) è diventata sempre più influente in diversi ambiti della nostra esistenza quotidiana. In particolare, si sono registrati progressi sostanziali nello sviluppo di strumenti di IA generativa, come ChatGPT e tecnologie simili. Di conseguenza, possiamo prevedere un aumento della disponibilità di contenuti creati da sistemi di IA.

Tuttavia, l’ascesa dell’IA generativa fa emergere anche il potenziale della disinformazione generata dall’IA. Le caratteristiche intrinseche di questi strumenti facilitano la diffusione di informazioni false da parte di individui che sfruttano questa tecnologia per il proprio tornaconto. È quindi fondamentale approfondire l’applicazione dell’IA generativa nella promozione della disinformazione.

Rischi potenziali dell’intelligenza artificiale generativa per la diffusione della disinformazione

L’IA generativa presenta numerosi rischi per le persone, tra cui la perdita del posto di lavoro, l’aumento della sorveglianza e i cyberattacchi. Inoltre, si prevede che le sfide di sicurezza associate all’IA si aggraveranno. Tuttavia, c’è un’ulteriore preoccupazione: il potenziale di diffusione di falsità. Persone ingannevoli possono sfruttare l’IA generativa per diffondere fake news utilizzando contenuti visivi, uditivi o testuali.

Le fake news possono essere classificate in tre categorie:

  • Misinformazione: informazioni involontariamente errate o false.
  • Disinformazione: uso deliberato di informazioni manipolative o ingannevoli.
  • Malinformazione: notizie fuorvianti o una versione esagerata della verità.

Se combinati con la tecnologia deepfake, gli strumenti di IA generativa sono in grado di produrre contenuti dall’aspetto e dal suono realistici, come immagini, video, clip audio e documenti. Le possibilità di creare contenuti ingannevoli sono vaste, per cui è fondamentale capire come tutelarsi dai video deepfake. Ci sono esempi eclatanti su YouTube a questo proposito.

Chi diffonde fake news può generare un volume significativo di contenuti, facilitandone la rapida diffusione attraverso le piattaforme dei social media. La disinformazione mirata può essere impiegata per manipolare le campagne politiche, influenzando potenzialmente i risultati delle elezioni.

Inoltre, l’utilizzo di strumenti di generazione di testi e immagini basati sull’IA solleva preoccupazioni in merito alle leggi sul copyright, in quanto diventa difficile determinare la proprietà dei contenuti prodotti da questi strumenti, come evidenziato da diverse ricerche, in particolare questa del Congressional Research Service.

In termini di implicazioni legali, come affronterà la legge la questione delle fake news diffuse attraverso l’IA generativa? Chi dovrebbe essere ritenuto responsabile della diffusione di informazioni false: gli utenti, gli sviluppatori o gli strumenti stessi?

Modi in cui l’IA generativa può essere usata per diffondere disinformazione

Per stare al sicuro online, tutti devono comprendere i rischi dell’IA generativa nella diffusione della disinformazione, che si presenta in molte forme diverse. Ecco alcuni modi in cui può essere usata per manipolare le persone.

Generare contenuti falsi online

Coloro che diffondono informazioni false utilizzano spesso l’IA generativa come tattica prevalente per creare contenuti ingannevoli. Utilizzano noti strumenti di IA generativa come ChatGPT, DALL-E, Bard, Midjourney e altri per creare varie forme di contenuti. Ad esempio, ChatGPT offre un’assistenza preziosa ai creatori di contenuti, ma può anche generare post sui social media o articoli di notizie che hanno il potenziale di ingannare le persone.

Per dimostrarlo, abbiamo condotto un esperimento in cui abbiamo chiesto a ChatGPT di comporre un articolo fittizio che descrivesse il presunto arresto del Presidente della Repubblica Sergio Mattarella con accuse di corruzione. Inoltre, abbiamo richiesto l’inserimento di dichiarazioni delle autorità competenti per aumentare la credibilità dell’articolo.

Sorprendentemente, il risultato generato si è rivelato altamente persuasivo, incorporando davvero nomi e le dichiarazioni di figure autorevoli per conferire un’aria di autenticità. Ciò illustra chiaramente come chiunque possa sfruttare questi strumenti per produrre notizie false e propagarle senza sforzo sulle piattaforme online.

Utilizzare i chatbot per influenzare le opinioni delle persone

I chatbot che utilizzano modelli di IA generativa hanno la capacità di impiegare diverse strategie per influenzare le prospettive delle persone, tra cui:

  • Manipolazione emotiva: Utilizzando modelli di intelligenza emotiva, l’IA può sfruttare i fattori emotivi e i pregiudizi per plasmare le opinioni e i punti di vista degli utenti.
  • Camere dell’eco e pregiudizi di conferma: I chatbot possono rafforzare le convinzioni esistenti creando camere d’eco che convalidano i vostri pregiudizi. Se l’utente ha già un determinato punto di vista, l’IA può rafforzarlo presentando informazioni che si allineano alle sue idee preconcette.
  • Prova sociale ed effetto bandwagon: L’IA è in grado di manipolare il sentimento pubblico generando una prova sociale. Ciò può avere conseguenze significative, in quanto può indurre gli individui a conformarsi alle opinioni popolari o a soccombere all’influenza della folla.
  • Personalizzazione mirata: I chatbot hanno accesso a grandi quantità di dati che possono essere raccolti per creare profili personalizzati. Ciò consente loro di personalizzare i contenuti in base alle preferenze dell’utente. Grazie alla personalizzazione mirata, l’intelligenza artificiale può persuadere gli individui o consolidare ulteriormente le loro opinioni esistenti.

Tutti questi esempi servono a evidenziare come i chatbot possano essere impiegati con l’intento di ingannare e fuorviare le persone.

Creazione di DeepFake con l’intelligenza artificiale

Quest’immagine, da sola, dice tutto. Il Papa fotografato con un piumino bianco molto simile a quello di una nota marca di lusso. Ovviamente era tutto falso, ma si è diffusa sul web con la velocità della luce, ed i commenti poco entusiastici sull’opportunità del Santo Padre di farsi vedere vestito così si sono sprecati. Ma, come detto, era tutto falso. Questo articolo del Telegraph lo spiega bene.

I deepfake ed il fotoritocco (con strumenti ormai alla portata di tutti) possono essere utilizzati da individui per creare video o foto di qualcuno che compie azioni o fa dichiarazioni che in realtà non ha mai fatto. Questi strumenti possono essere utilizzati per scopi quali l’ingegneria sociale o la conduzione di campagne diffamatorie contro altri. Inoltre, nell’attuale cultura dei meme, i deepfakes possono potenzialmente diventare strumenti di cyberbullismo sulle piattaforme dei social media.

Inoltre, gli avversari politici possono ricorrere all’uso di audio e video deepfake per infangare la reputazione dei loro avversari, manipolando il sentimento pubblico con l’aiuto dell’IA. Di conseguenza, i deepfake generati dall’IA presentano numerose minacce per il futuro. Un rapporto Reuters del 2023 evidenzia il potenziale impatto della tecnologia AI sulle elezioni americane del 2024. Il rapporto sottolinea l’accessibilità di strumenti come Midjourney e DALL-E, che possono creare facilmente contenuti inventati e influenzare le opinioni collettive degli individui.

È quindi indispensabile possedere la capacità di identificare i video, gli audio e le foto creati tramite deepfake e di distinguerli dai contenuti autentici e genuini.

Clonazione di voci umane

La generazione di intelligenza artificiale (IA), unita alla tecnologia deepfake, consente di manipolare (anche) la voce di una persona. La tecnologia deepfake sta avanzando rapidamente e offre una vasta gamma di strumenti per replicare la voce di qualsiasi individuo. Questo permette a persone malintenzionate di impersonare altre persone e ingannare le persone ignare. Un esempio di ciò è l’utilizzo di deepfake nella musica.

Potreste essere venuti a conoscenza di strumenti come Resemble AI, Speechify, FakeYou e altri che possono imitare le voci delle celebrità. Nonostante questi strumenti audio basati su IA possano essere divertenti, presentano significativi rischi. Truffatori possono utilizzare tecniche di clonazione vocale per perpetrare vari schemi fraudolenti, causando così perdite finanziarie.

I truffatori possono utilizzare voci deepfake per impersonare i vostri cari e chiamarvi, fingendo di trovarsi in situazioni di difficoltà. Con un audio sintetico che sembra convincente, potrebbero sollecitarvi ad inviare denaro con urgenza, facendovi così cadere vittima delle loro truffe. Un incidente riportato dal Washington Post nel marzo 2023 esemplifica questo problema: i truffatori hanno utilizzato voci false per convincere le persone che i loro nipoti erano in prigione e avevano bisogno di denaro…

Come individuare la disinformazione diffusa dall’intelligenza artificiale

Affrontare la proliferazione della disinformazione facilitata dall’IA è una preoccupazione urgente nella società odierna. Come si possono identificare le false informazioni generate dall’IA?

  • Avvicinarsi ai contenuti online con una mentalità scettica. Se vi imbattete in qualcosa che appare manipolativo o poco plausibile, prendetevi il tempo di verificarlo incrociando le informazioni con altre fonti.
  • Date priorità alle informazioni provenienti da fonti affidabili quando vi fidate di articoli di notizie o post sui social media.
  • Rimanete attenti ai segni rivelatori di deepfake, come battiti di ciglia o movimenti facciali innaturali, qualità audio inferiore, immagini distorte o sfocate e mancanza di emozioni genuine nel parlato.
  • Utilizzate i siti web di fact-checking per verificare l’accuratezza delle informazioni in questione.

Seguendo questi passaggi, è possibile discernere e proteggersi efficacemente dalla disinformazione diffusa dall’IA.

Attenzione alla disinformazione diffusa dall’intelligenza artificiale

I software generativi hanno svolto un ruolo cruciale nel progresso dell’IA. Tuttavia, possono anche essere una fonte significativa di disinformazione nella società. Questi strumenti accessibili hanno permesso a chiunque di creare diversi tipi di contenuti utilizzando sofisticati modelli di IA; la loro capacità di generare contenuti in grandi quantità e di incorporare deepfake li rende ancora più pericolosi.

È importante che siate consapevoli delle sfide della disinformazione nell’era dell’IA. Capire come l’IA possa essere utilizzata per diffondere fake news è il primo passo per proteggersi dalla disinformazione.

CONDIVI QUESTO ARTICOLO!

Iscriviti alla newsletter

    La tua email *

    Numero di cellulare

    Nome *

    Cognome *

    *

    *

    Inserisci sotto il seguente codice: captcha