Tech companies & minori: uno “SPID europeo” per accertare l’età sui social

L'accesso illimitato dei minori alla rete apre ad una serie di problematiche non più rimandabili, che rientrano in una più generale revisione dei rapporti di forza online

Lo scorso 9 febbraio 2021 si è tenuta la giornata "Per un internet più sicuro" (Safer Internet Day), nata nel 2004 e promossa dalla rete di centri "Internet più sicuro" finanziata dall'UE negli Stati membri. Questa giornata assume ancora più rilevanza se inserita nel contesto emergenziale in cui il tragico incidente di Palermo per cui una bambina di 10 anni è morta soffocata partecipando ad una cosiddetta “challenge” su TikTok è solo la punta dell’iceberg.

Il tema in questione, da inquadrare nell’ambito di una rete pressoché totalmente deregolamentata e in mano ad interessi dei privati, è quello dell'accesso illimitato dei minori alla rete, con la possibilità di iscriversi ed interagire con app, social networks e le più varie piattaforme online, senza un reale controllo. Tutto questo può essere molto pericoloso, oltre che per l’istigazione ad atti estremi e del tutto insensati (come le sopraccitate “challenges”, dalla russa “Blue whale” del 2016 che si articola in una prova estrema di 50 regole folli, tra cui tagliarsi le vene, salire sul tetto di un palazzo e arrampicarsi sul cornicione, ai più recenti "Black out", "Chocking game", "Pass-out game" che si basano sul soffocamento, o al "Batmanning" che prevede l’appendersi a testa in giù come un pipistrello e all’"Eyeballing” per cui gettarsi la vodka negli occhi), anche per le implicazioni in materia di privacy.

Infatti, la più parte di queste app e social networks allo stato attuale sfruttano i consensi del tutto non "informati" dei più giovani per trattare in modo illecito i dati personali e porre in essere attività di profilazione e marketing non autorizzate, arrivando perfino a criticità come data breach o furto di dati, con effetti molto pregiudizievoli specie nei casi in cui i dati personali divulgati siano sensibili e riguardino dettagli famigliari che non dovrebbero essere trasmessi.

Alla luce di tutto ciò, è evidente che tali comportamenti non possono più essere ignorati sul fronte regolamentare, tanto che come sottolineano  in un apposito commento al tema gli avvocati Pietro Pouchè e Giulia Maienza dello studio legale internazionale Herbert Smith Freehills, “I social network e le piattaforme dovranno aspettarsi un incremento di contenziosi correlati a queste tematiche”.

A tal proposito, durante il sopracitato evento Safer Internet Day, anche Roberto Viola, direttore DG Connect Commissione europea, ha ribadito come le istituzioni europee ed in particolare colei che ha iniziativa legislativa, ovvero la Commissione intenda “iniziare un percorso, insieme a tutte le Autorità nazionali e alle aziende, per sperimentare nuovi metodi per la verifica dell’età di chi accede alla Rete”. 

Esistono, appunto, software capaci di individuare e bloccare contenuti vietati, violenti, volgari, discriminatori; oltre che implementare sistemi di machine learning basati su algoritmi che permettono di identificare comportamenti sospetti e segnalarli in modo celere ed efficace. Parallelamente, dato che le aziende investono sempre di più nella ricerca di software in grado comprendere le abitudini e caratteristiche di un soggetto, si potranno facilmente sviluppare sistemi di ultima generazione in grado di utilizzare lo scan facciale e di interpretare le abitudini personali in modo da identificare e segnalare soggetti potenzialmente minorenni e nel caso richiedere all'utente maggiori prove a dimostrazione della propria età, come l'obbligo di mostrare un documento di identità. Per di più, un’ulteriore possibilità sarà quella di includere sistemi di autenticazione e approvazione collegati a device dei genitori così da permettere un maggiore controllo sulle azioni dei minori.

Sul fronte UE è da registrare, inoltre, il Pilot Project della Commissione europea, che punterebbe sull’uso dell’eID (Electronic identification), ossia il cosiddetto “SPID europeo”, per verificare l’età dei minori. L’obiettivo del progetto pilota è quello di realizzare un’infrastruttura tecnica interoperabile e transfrontaliera che, pur anonimizzando i dati, possa essere capace di rendere funzionali meccanismi di protezione dei minori online (come appunto con la verifica dell’età) e meccanismi di consenso dei genitori basati sulla legislazione dell’UE pertinente come Audio Visual Media Services Directive (AVMSD) e GDPR, in primis.

In termini generali, poi, il Digital Service Act (DSA) europeo dello scorso 15 dicembre 2020 cerca di regolare due principi fondamentali rivedendo il regime di responsabilità. In primo luogo, quindi, nessuna piattaforma può farsi giustizia da sola, in quanto ci deve essere un controllo pubblico anche su piattaforme private; ed in secondo luogo, deve valere il principio per cui “Ciò che vale offline vale online”. Il cammino di approvazione del DSA è ancora lungo (la nuova normativa non sarà definitiva con tutta probabilità prima del 2022), ma questo permette di instradarsi ben equipaggiati anche in tema di rete e minori verso un nuovo equilibrio nella regolamentazione delle piattaforme e nelle tecnologie applicative.

Civiltà, collaborazione, cognizione e cooperazione dovranno essere i mantra da applicare a questo macro ambito, non solo tra i Big Tech come GAFA (Google, Apple, Facebook e Amazon), ma anche tra istituzioni e società civile.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome