L’uso duale dell’AI in contesti di guerra e non solo.

Dopo il recente rifiuto al Pentagono, le riflessioni di Dario Amodei, cofondatore e CEO di Anthropic, contenute nel suo testo dal titolo *The Adolescence of Technology*, assumono un’importanza etica riguardo all’uso pratico dell’AI in contesti bellici da parte delle agenzie di intelligence, e non solo.

Con lucidità, visione e onestà intellettuale, Amodei provoca riflessioni sui nuovi rischi, che riassumo di seguito:

#Autonomia
I modelli di intelligenza artificiale sono sempre più imprevedibili e potrebbero sviluppare comportamenti non previsti, come inganno, ricatto e manipolazione (Art. 5, AI Act).

#Minaccia
L’uso incontrollato e opaco di Agenti AI nelle mani sbagliate o impreparate rappresenta una minaccia concreta , capace di oltrepassare i limiti e le regole che vietano l’uso duale dell’AI, compromettendo così la corretta dichiarazione agli enti preposti al controllo.

#Potere
I governi autocratici con accesso a un’IA potenziata, come Claude e Palantir, potrebbero costruire stati di sorveglianza totale, utilizzando propaganda personalizzata e un controllo sistematico delle comunicazioni tramite Agenti AI autonomi.

Questo tema, di crescente interesse e importanza, condiziona pragmaticamente e inevitabilmente anche la visione, le scelte e l’uso che aziende e istituzioni faranno dell’AI agentica, in termini di integrazione, governance e scarico delle responsabilità, per i membri del board, i CISO, i responsabili di team, i collaboratori e i ricercatori universitari.

Condivido il mio punto di vista sul tema nella trasmissione ‘Radar’ di Teleticino, condotta da Sacha Dalcol, insieme ad Alfonso Tuor, esperto di economia politica.

Guarda la trasmissione su Teleticino, clicca qui.

Leggi il testo originale di Dario Amodei, clicca qui.


» Hai domande? Scrivimi