Poiché la tecnologia continua a migliorare a un ritmo mai visto prima, l’idea di ciò che è vero sta diventando meno chiara. Con l’ascesa dell’intelligenza artificiale generativa (AI), sta diventando sempre più difficile distinguere cosa è reale e cosa no. In questo nuovo mondo, la verità non può essere dimostrata con la stessa certezza di una volta.
L’intelligenza artificiale generativa può creare qualsiasi cosa una persona possa fare, da immagini e video dall’aspetto reale a testi complicati. Gli algoritmi di apprendimento automatico vengono utilizzati per alimentare la tecnologia. Questi algoritmi sono addestrati su enormi quantità di dati, il che consente loro di produrre risultati che non possono essere distinti da quelli prodotti dagli esseri umani.
Ciò ha effetti di vasta portata sul modo in cui pensiamo alla verità. In passato, fatti e prove venivano usati per capire cosa fosse vero. Ma in un mondo in cui l’IA generativa può fare tutto ciò che vuole, non è chiaro cosa conti come prova. Ad esempio, un video falso di un personaggio politico realizzato da AI potrebbe essere utilizzato per diffondere notizie false, rendendo difficile distinguere cosa è reale e cosa no.
Inoltre, la rapida crescita dell’IA generativa significa che la diffusione di informazioni false non farà che accelerare. Man mano che l’intelligenza artificiale migliora, sarà sempre più difficile per la persona media stabilire se le informazioni fornite sono reali o meno.
Negli anni a venire, le persone dovranno capire come vivere in questo nuovo mondo in cui la verità è difficile da definire. I metodi tradizionali di controllo delle informazioni stanno diventando meno affidabili, quindi è più importante che mai essere scettici su ciò che ci viene detto e cercare altri modi per trovare la verità.
Allo stesso tempo, i governi, le istituzioni e le aziende tecnologiche devono assumersi la responsabilità di come l’IA generativa sta cambiando il modo in cui pensiamo alla verità. Ciò potrebbe significare che la tecnologia è regolamentata in modo più rigoroso per fermare la diffusione di informazioni false e che vengono creati nuovi strumenti per aiutare le persone a verificare la validità delle informazioni fornite.
I numeri raccontano la vera storia
Ecco alcuni numeri che evidenziano la rapida crescita dell’IA e la diffusione della disinformazione, che continuerà ad aumentare man mano che la tecnologia diventerà più avanzata e ampiamente adottata.
1. Dimensione del mercato dell’intelligenza artificiale: secondo un rapporto di MarketsandMarkets, il mercato globale dell’IA dovrebbe raggiungere i 339,8 miliardi di dollari entro il 2026, con un tasso di crescita annuo composto del 27,6% dal 2021 al 2026.
2. Adozione dell’IA: un sondaggio di Gartner ha rilevato che il 75% delle organizzazioni ha implementato o prevede di implementare l’IA entro i prossimi tre anni.
3. AI e notizie false: uno studio dell’Oxford Internet Institute ha rilevato che le notizie false si diffondono sei volte più velocemente delle notizie vere su Twitter. Inoltre, una ricerca del MIT ha rilevato che le informazioni false hanno il 70% di probabilità in più di essere ritwittate rispetto alle informazioni vere.
4. AI e deepfake: il mercato della tecnologia deepfake dovrebbe crescere da 78 milioni di dollari nel 2020 a 2,6 miliardi di dollari entro il 2025, secondo un rapporto di Allied Market Researc.
5. Disinformazione durante il COVID-19: l’Organizzazione Mondiale della Sanità ha riferito che c’è stato un aumento della disinformazione sul COVID-19, con false informazioni che si sono diffuse rapidamente sulle piattaforme dei social media.
Possibili soluzioni(?)
Ecco alcune idee su come affrontare i problemi causati dalla rapida crescita dell’IA e dalla diffusione di fake news:
1. Alfabetizzazione mediatica: significa dare alle persone la conoscenza e gli strumenti di cui hanno bisogno per riconoscere e giudicare la verità delle informazioni che vedono e ascoltano. Ciò potrebbe essere fatto attraverso programmi nelle scuole per insegnare alle persone come utilizzare la tecnologia, campagne di sensibilizzazione pubblica e strumenti di facile utilizzo per il controllo delle informazioni.
2. Regolamentazione: i governi possono stabilire regole su come utilizzare i contenuti generati dall’intelligenza artificiale, specialmente nelle campagne politiche, per assicurarsi che non vengano utilizzati per diffondere informazioni false. Ciò potrebbe significare mettere etichette chiare sui contenuti realizzati dall’intelligenza artificiale o limitare la quantità di intelligenza artificiale utilizzata negli annunci politici.
3. Soluzioni tecniche: creazione di nuovi strumenti e tecnologie per trovare e combattere la disinformazione, come algoritmi di intelligenza artificiale in grado di individuare deepfake o sistemi basati su blockchain in grado di verificare se le informazioni sono reali.
4. Aziende tecnologiche: devono assicurarsi che le loro piattaforme non vengano utilizzate per diffondere informazioni false. Ciò potrebbe significare spendere soldi per strumenti per trovare e bloccare informazioni false e lavorare con gruppi ed esperti per trovare i modi migliori per fermare la diffusione di informazioni false.
5. Cooperazione internazionale: è necessaria per affrontare i problemi causati dall’intelligenza artificiale e dalle informazioni false, poiché la tecnologia e la diffusione di informazioni false non si preoccupano dei confini. La condivisione delle migliori pratiche, la creazione di standard comuni e la collaborazione per trovare soluzioni a questi problemi potrebbero far parte della cooperazione internazionale.
Per mettere in atto queste soluzioni, il governo, le imprese e la società nel suo insieme dovranno lavorare in comune e utilizzare una varietà di metodi. Ma dobbiamo agire ora, prima che l’intelligenza artificiale e le notizie false rendano i problemi ancora più difficili da risolvere.
https://www.asterios.it/catalogo/quid-enim-sum-cosa-realmente-sono