Il G7 di Ischia si è concluso con l’accordo strategico dei big della tecnologia (Google, Microsoft, Facebook e Twitter) sulle modalità e le collaboazioni necessarie per la lotta al terrorismo online.

In particolare, al centro dell’accordo, la volontà di effettuare controlli automatici su immagini e contenuti ritenuti a rischio propaganda. Un primo passo importante, orientato alla condivisione dei dati e delle informazioni strateiche necessario, che pone però alcune riflessioni.

Il dataset dei dati necessari per l’addestramento dei modelli di riconoscimento, per essere efficaci, dev’essere cospicuo e accurato. Ecco perchè, in questa fase iniziale di raccolta e condivione dei dati, il numero di falsi positivi potrebbe portare al centro del radar il monitoraggio di persone estranee alle attività di propaganda al terrorismo, o, peggio ancora, limitare in alcuni casi la libertà di espressione.

Una mia intervista per il TG della Radiotelevisione svizzera – RSI – condotto da Alessandro Chiara e Alessandra Spataro – in cui spiego la natura della complessità che caratterizza un atto comunicativo usato per l’avvicinamento, la propaganda e la radicalizzazione al terrorismo.

  • Per rivedere il servizio (e l’intervista) della Radiotelevisione svizzera – RSI – clicca qui.

Di fatto, ciò che ho scientificamente dimostrato l’anno scorso presso il Tribunale Penale Svizzero, durante la conferenza dal titolo “Il lato oscuro della rete”.

Per farlo ho utilizzato il modello stocastico-probabilistico di analisi interdisciplinare del dialogo – “DIKE” – realizzato durante la mia tesi di dottorato (Ph.D.) al Dipartimento di Elettronica, Informazione e Bioingegneria (DEIB) del Politecnico di Milano, nel gruppo di ricerca ARCSLab coordinato dalla Prof.ssa Licia Sbattella.

Iscriviti alla mia newsletter.