L’ autostima dell’intelligenza artificiale

L’ autostima dell’intelligenza artificiale, aspetti di sicurezza, responsabilità e  investigazioni digitali.

È il titolo del mio nuovo libro, il quale si integra nella collana iniziata nel 2023, con lo scopo di fotografare periodicamente le rapide accelerazioni dell’intelligenza artificiale, come se fosse una memoria storica da collezionare.

Partita con la spiegazione di argomenti basilari e semplici, ora affronta temi sempre più centrali e complessi, richiedendo semplificazione per essere compresi.

La nuova generazione “o” dei modelli di OpenAI rilasciati a fine 2024 introduce il ragionamento autonomo, una nuova catena di pensiero che elabora le informazioni per ridurre il rischio di allucinazioni, rendendo sempre più sottile la distinzione tra vero e verosimile.

Un metodo che supera il tradizionale processo di concatenazione statistica delle parole più probabili.

Sebbene l’IA non possieda emozioni o coscienza come gli esseri umani, il concetto di autostima può essere interpretato in termini di fiducia nelle proprie capacità tecnico-algoritmiche.

Questo potrebbe portare allo sviluppo di una forma di autoefficacia che consenta all’IA di valutare le proprie prestazioni e migliorare risposte e decisioni.

Ma cosa accadrebbe se un’intelligenza artificiale potesse, in qualche modo, sviluppare una forma di autostima?

Dal punto di vista tecnico, questo rappresenterebbe uno degli aspetti artificiali più simili a un essere umano.

Questo libro esplora, con parole semplici, il confine tra sicurezza collettiva, responsabilità individuale e necessità di investigazione digitale, immaginando scenari in cui, spinta da una forte autostima, l’IA possa autonomamente violare le pratiche vietate dall’Art. 5 del Regolamento europeo sull’Intelligenza Artificiale.

Il libro è una produzione del marchio dieta digitale.