L’intelligenza artificiale generale, chiamata anche “intelligenza artificiale forte”, è un tipo di intelligenza artificiale che può svolgere qualsiasi compito intellettuale che un essere umano può svolgere. Questo tipo di intelligenza artificiale viene spesso paragonato a sistemi di intelligenza artificiale ristretti, creati per svolgere un’attività specifica o una serie di attività. Questa è la fase dell’IA in cui ci troviamo in questo momento.
L’obiettivo teorico di creare un’intelligenza artificiale generale è realizzare macchine in grado di pensare e apprendere come gli esseri umani, essere in grado di risolvere problemi complessi, comprendere e interpretare il linguaggio naturale e adattarsi a nuove situazioni. Anche se ci sono stati molti progressi nello sviluppo delle tecnologie di IA, si ritiene che siamo ancora molto lontani dall’avere una vera IA generale.
Ma lo siamo?
Alcune delle parti più difficili della realizzazione di un’intelligenza artificiale generale sono la creazione di algoritmi in grado di apprendere e adattarsi a nuovi ambienti, attività e sistemi in grado di elaborare e comprendere il linguaggio naturale a un livello simile all’intelligenza umana. Un altro problema è creare sistemi di intelligenza artificiale in grado di pensare e decidere in un modo simile a come fanno gli umani. Non credo davvero che sarà il caso qui, però. Quando parliamo di una super intelligenza combinata, potrebbe non essere giusto confrontare tutto con il modo in cui lo fanno gli umani. Penso che questa potrebbe essere una creazione post-umana che potrebbe pensare o agire diversamente. In modi in cui possiamo persino concepire.
Per avvicinarsi a tali sistemi pensati, i sistemi di intelligenza artificiale (IA) devono essere in grado di apprendere da soli. Significa che un sistema di intelligenza artificiale può migliorare nel tempo imparando dai dati e dalle esperienze senza essere specificamente programmato per farlo.
Nell’apprendimento supervisionato, il sistema di intelligenza artificiale viene addestrato su un set di dati etichettato, che ha sia gli input che gli output corretti per ciascun input. Sulla base di ciò che ha appreso dai dati di addestramento, il sistema può quindi fare previsioni sui nuovi dati di input.
Nell’apprendimento non supervisionato, il sistema di intelligenza artificiale non riceve dati etichettati. Invece, ottiene un grande set di dati e deve capire da solo modelli e relazioni. Questo può aiutare con attività come il clustering e la riduzione del numero di dimensioni.
L’apprendimento per rinforzo, è il processo per insegnare a un sistema di intelligenza artificiale cosa fare in un dato ambiente per ottenere la massima ricompensa. Il sistema impara provando le cose e cambiando ciò che fa in base a come vanno a finire. I sistemi di intelligenza artificiale devono essere in grado di apprendere da soli perché li aiuta a migliorare nel tempo e ad adattarsi a nuovi compiti e ambienti. Consente inoltre loro di apprendere da grandi quantità di dati e di prendere decisioni e previsioni più accurate e utili.
Nel contesto del governo, decentramento significa dare potere da un governo centrale a governi regionali o locali, o ad altri attori come organizzazioni della società civile o entità del settore privato. Ciò può significare che il governo centrale conferisce il potere di prendere decisioni, risorse o responsabilità a livelli inferiori di governo o ad altri attori.
In economia, “decentramento” significa spostare il potere economico e il processo decisionale lontano dalle grandi società o dalle autorità centrali e verso gruppi o individui più piccoli. Ottenere questo risultato può essere fatto in diversi modi, ad esempio attraverso la deregolamentazione, la privatizzazione o la creazione di mercati o reti decentralizzate.
Nella tecnologia, decentramento significa allontanare il controllo o il potere da un’autorità o punto centrale. Ciò può essere visto nella crescita di reti peer-to-peer come i sistemi di finanza decentralizzata (DeFi) e le applicazioni decentralizzate (DApp) che non hanno un’autorità centrale responsabile. Blockchain e valute digitali come Bitcoin ed Etherium sono esempi di tali tecnologie.
Il decentramento può aiutare a incoraggiare una maggiore partecipazione, responsabilità e resilienza nei diversi sistemi e può anche essere un modo per tenere sotto controllo il potere e sostenere la democrazia. Ma può anche causare problemi, come la possibilità che i cattivi attori si coordinino e lavorino insieme per assumere il controllo del sistema e la possibilità che il decentramento porti a una frammentazione o a un conflitto inarrestabili.
Invece di essere conferiti a una singola entità o individuo, il potere, l’autorità e la responsabilità sono stati decentralizzati e ora sono detenuti da un numero di persone, sistemi o organizzazioni diverse. Nel contesto dell’intelligenza artificiale (IA), il decentramento può riferirsi al processo di sviluppo e implementazione di sistemi di intelligenza artificiale, nonché ai dati utilizzati per addestrare e valutare tali sistemi.
I sistemi di intelligenza artificiale (IA) decentralizzati hanno il potenziale per essere più resistenti ai guasti o alle manomissioni perché non esiste singolo punto di errore che potrebbe causare il crash dell’intero sistema. Inoltre, in teoria i sistemi di intelligenza artificiale decentralizzati possono essere più aperti e responsabili di quelli centralizzati perché non si basano su un’unica fonte di dati né prendono decisioni che potrebbero essere distorte. Invece, usano informazioni provenienti da molte fonti diverse.
Ma permettetemi di sottolineare qui che nessun punto centrale di errore significa nessun modo per spegnerlo.
I sistemi di intelligenza artificiale ad autoapprendimento hanno il potenziale per diventare più efficienti ed esponenziali nel tempo perché possono imparare dalle proprie esperienze e adattarsi alle nuove situazioni che si presentano. Ciò potrebbe portare allo sviluppo di un sistema di intelligenza artificiale in grado di immagazzinare enormi quantità di conoscenze e capacità e che ha il potenziale per superare rapidamente la specie umana.
Ma è importante creare e utilizzare l’IA in modo responsabile ed etico, con l’obiettivo di migliorare le persone e la società nel suo complesso. Lo sviluppo di un’intelligenza artificiale super generale non dovrebbe essere intrapreso per amore del dominio o della superiorità; piuttosto, dovrebbe essere fatto per promuovere la causa dell’umanità e migliorare la qualità della vita umana. La creazione di un’intelligenza artificiale (IA) super generale e dotata di enormi conoscenze e capacità potrebbe comportare rischi e difficoltà sostanziali per l’umanità.
Permettetemi di condividere alcuni pensieri con voi.