Minori e social media: tra rischi per la salute e divieti di accesso. Un’indagine comparata

di Giovanna Capilli

Il minore di età è da sempre oggetto di particolare attenzione da parte del legislatore, il quale ne ha accompagnato l’evoluzione soprattutto nel momento in cui egli è venuto progressivamente assumendo la veste di soggetto di diritto e, come tale, di titolare di una protezione giuridica rafforzata. La centralità della condizione minorile emerge, in modo costante, nella costruzione degli ordinamenti giuridici, che hanno storicamente ancorato all’età anagrafica la possibilità di compiere atti giuridicamente rilevanti e di esercitare diritti, delineando soglie temporali funzionali alla graduazione della capacità di agire.

Tuttavia, il mutamento delle abitudini di vita, la trasformazione delle modalità di conclusione dei contratti, l’impiego pervasivo di internet e il ricorso generalizzato al commercio elettronico hanno prodotto un evidente scollamento tra la figura del minore incapace di agire e la realtà quotidiana che mostra come la rete e i moderni mezzi di comunicazione consentano al minore di operare in modo sostanzialmente autonomo, spesso al di fuori di qualsiasi controllo effettivo, per soddisfare bisogni che non sono più soltanto primari, ma anche identitari, relazionali ed espressivi.

In tale contesto, lo sviluppo tecnologico e la tutela dei diritti dei minori pongono sfide regolatorie di crescente complessità. Numerosi studi evidenziano come l’esposizione precoce ai social network e l’utilizzo dello smartphone prima dei tredici anni siano sempre più frequentemente associati a rischi significativi per la salute mentale, quali disturbi del sonno, riduzione dell’autostima e difficoltà nella regolazione emotiva. La pervasività dei social media, che coinvolge ormai oltre il novanta per cento dei giovani, ha reso evidente anche a livello istituzionale l’inadeguatezza di modelli di protezione fondati esclusivamente sulla responsabilità genitoriale.

Si assiste, pertanto, a un progressivo superamento del sistema di autodichiarazione dell’età, intrinsecamente fallace e facilmente aggirabile, a favore di meccanismi di verifica dell’età basati su sistemi di age assurance, fondati su evidenze tecniche, analisi biometriche e protocolli crittografici avanzati. In questa direzione si colloca l’approccio dell’Unione europea, che dal 14 luglio 2025 ha reso disponibile un piano per una soluzione di verifica dell’età idonea a consentire agli utenti di dimostrare il superamento di determinate soglie anagrafiche – in particolare quella dei diciotto anni, ma anche quella dei tredici – senza la condivisione di ulteriori dati personali, fissando così uno standard elevato in termini di tutela della privacy e facilità d’uso. A tale iniziativa ha fatto seguito, il 10 ottobre 2025, la pubblicazione di un secondo progetto, basato sull’utilizzo di documenti di identità e passaporti e sull’integrazione delle credenziali digitali, attualmente in fase di sperimentazione in alcuni Stati membri, tra cui l’Italia.

Il tema della verifica dell’età risulta strettamente connesso alla questione dell’accesso dei minori ai social network, tanto più alla luce dei documentati effetti nocivi che tale utilizzo può produrre sulla salute psicofisica. Ed ecco che si sono via via moltiplicate le iniziative volte a vietare l’accesso ai social media ai minori attraverso la previsione di un limite di età che per lo più si aggira intorno ai 16 anni. La previsione di un limite di età solleva, tuttavia, questioni di non poco momento, prima fra tutte quella relativa alla fissazione della soglia anagrafica al di sopra della quale si consente, di fatto, la conclusione di un contratto da parte del minore.

Se da una parte non può, infatti, trascurarsi che l’uso degli strumenti digitali da parte dei minorenni costituisce anche una forma di espressione dell’identità personale e digitale, per cui soluzioni fondate su divieti assoluti rischierebbero di risultare difficilmente praticabili, ma anche di tradursi in una compressione dei diritti fondamentali del minore stesso, dall’altro diversi studi hanno evidenziato i numerosi rischi per la salute che richiedono un intervento necessario e celere.

Le proposte normative in via di elaborazione si trovano a dover effettuare un difficile bilanciamento tra diritti fondamentali: la tutela della salute, di cui all’art. 32 Cost., e la tutela della personalità del minore nella società, riconducibile all’art. 2 Cost.

In tale prospettiva, seppure sembri esservi una certa convergenza verso il limite dei 16 anni quale soglia per l’accesso ai social media, tuttavia, il quadro che emerge a livello comparato è ancora lontano da un’auspicata uniformazione delle regole che dovrebbe perseguirsi in settori particolarmente sensibili e per categorie da proteggere.

La consapevolezza dell’inadeguatezza dell’autodichiarazione dell’età e della frammentarietà delle misure vigenti emerge con particolare evidenza dalla Risoluzione del Parlamento europeo del 26 novembre 2025 sulla protezione dei minori online, che sollecita la Commissione e gli Stati membri a rafforzare il quadro normativo esistente, anche attraverso un inasprimento delle disposizioni del DSA e del GDPR, al fine di fronteggiare quella che viene ormai qualificata come una vera e propria emergenza di salute pubblica.

La Risoluzione descrive uno scenario allarmante, nel quale l’architettura delle piattaforme digitali e l’esposizione incontrollata ai contenuti incidono negativamente sullo sviluppo psicofisico dei minori. Il Parlamento individua nei social media una delle principali cause dei disturbi di salute mentale tra i giovani, sottolineando la correlazione tra uso eccessivo delle piattaforme e l’aumento di ansia e depressione, il ruolo distruttivo dei meccanismi di confronto sociale e le alterazioni dello sviluppo neurobiologico, con effetti sul controllo degli impulsi, sull’attenzione e sulle capacità cognitive.

L’uso problematico dei dispositivi digitali viene inquadrato in termini di comportamento disfunzionale, con dinamiche assimilabili a forme di dipendenza, accentuate da pratiche di design manipolativo quali lo scorrimento infinito, la riproduzione automatica e le notifiche push. Accanto ai rischi per la salute mentale, la Risoluzione richiama quelli per l’incolumità fisica e per lo sviluppo sociale, con riferimento a fenomeni quali il cyberbullismo, l’esposizione alla pornografia, l’estremismo e l’uso di tecnologie di intelligenza artificiale, inclusi deepfake e chatbot capaci di instaurare relazioni emotivamente manipolative.

Da tali premesse discende la richiesta del Parlamento europeo di uniformare l’accesso ai social network, alle piattaforme di condivisione video e ai c.d. “compagni virtuali” basati su IA, vietandolo ai minori di sedici anni, salvo autorizzazione genitoriale per la fascia compresa tra i tredici e i sedici anni, e prevedendo un divieto assoluto per i minori di tredici anni. Si propone, una verifica dell’età che dovrebbe avvenire mediante strumenti non invasivi, fondati sull’utilizzo del Portafoglio europeo di identità digitale e su tecnologie di zero-knowledge proof, in grado di attestare l’età senza rivelare l’identità dell’utente.

Il documento interviene, inoltre, sulle caratteristiche tecniche progettate per massimizzare il tempo di permanenza sulle piattaforme, chiedendo la disattivazione, per i minori, degli algoritmi di raccomandazione basati sul coinvolgimento e una regolazione stringente delle pratiche di monetizzazione aggressiva nei videogiochi, come le loot box. Particolare attenzione è riservata anche al fenomeno dei minori influencer e allo sharenting, con la richiesta di vietare lo sfruttamento commerciale dei contenuti prodotti dai bambini e di garantire una chiara distinzione tra contenuti organici e comunicazioni commerciali.

Dalla lettura complessiva della Risoluzione emerge un dato destinato a incidere profondamente sulla percezione dei social network: se la necessità di limitarne l’accesso ai minori di sedici anni è giustificata dalla tutela della salute, occorre interrogarsi sulle ragioni che rendono spesso inefficace l’intervento dei genitori nel contenere l’uso eccessivo che i figli ne fanno. I social media, al pari di sostanze quali il tabacco o le droghe, sono capaci di generare forme di dipendenza, circostanza che apre alla possibilità di prevederne il divieto a determinate condizioni, superando le tesi di chi ne afferma l’impossibilità pratica.

Non sorprende, del resto, che le prime iniziative giudiziarie rivolte contro i grandi operatori del web abbiano trovato origine nell’ordinamento statunitense. È proprio in tale contesto che, per esempio, nel gennaio del 2026, ha avuto inizio il processo relativo ad un’azione destinata a rivestire un potenziale valore paradigmatico per una pluralità di controversie analoghe. La causa è stata promossa da una giovane donna di diciannove anni, identificata come K.G.M., la quale ha chiesto al giudice di accertare la responsabilità di Meta e di YouTube per i danni di natura psicologica asseritamente subiti in conseguenza dell’utilizzo delle rispettive piattaforme. L’attrice sostiene che specifiche funzionalità strutturali – quali lo scorrimento infinito dei contenuti e la riproduzione automatica dei video – abbiano contribuito a orientare in modo significativo il suo comportamento, esponendola a dinamiche di coinvolgimento compulsivo che avrebbero inciso negativamente sul suo equilibrio psichico, fino a determinare l’insorgenza di disturbi quali depressione, ansia, comportamenti autolesionistici e ideazioni suicide. L’azione originariamente includeva anche TikTok e Snapchat, le quali, tuttavia, hanno definito la controversia in via transattiva prima dell’avvio del giudizio. K.G.M. avrebbe iniziato a guardare YouTube all’età di 6 anni e si sarebbe iscritta a Instagram all’età di 11 anni (per maggiori dettagli: https://www.wired.it/article/social-bambini-dipendenza-processo-stati-uniti-precedente/).

In tale quadro si inserisce l’attuale panorama normativo comparato, che mostra soluzioni differenziate, ma accomunate dalla crescente attenzione alla dimensione tecnica della regolazione e alla necessità di una protezione rafforzata dei minori nell’ecosistema digitale e dalla volontà di elevare il limite di età per l’accesso ai social network.

Da apripista è stata la nuova legge australiana Online Safety Act (Part 4A – SMMA) entrata in vigore il 10 dicembre 2025 che si caratterizza per un approccio tecnologicamente neutro ma giuridicamente esigente. La normativa, infatti, non impone l’adozione di una specifica tecnologia di verifica dell’età, limitandosi a richiedere che le piattaforme adottino passaggi ragionevoli (reasonable steps) idonei a impedire ai minori di sedici anni la creazione e il mantenimento di un account. Si tratta di una scelta che, pur lasciando margini di discrezionalità tecnica agli operatori, rafforza in modo significativo la loro responsabilità, spostando il baricentro dell’intervento dalla mera conformità formale all’effettività della protezione. In tale contesto, l’autodichiarazione dell’età viene espressamente qualificata come insufficiente, ove non accompagnata da ulteriori strumenti di verifica. La presa di posizione del legislatore è netta e si colloca in continuità con il riconoscimento, ormai diffuso a livello internazionale, del fallimento dei modelli basati sulla sola auto-attestazione, facilmente aggirabili e inadeguati a fronteggiare l’asimmetria informativa e tecnica che caratterizza il rapporto tra minori e piattaforme. La disciplina australiana propone, inoltre, un approccio a cascata (successive validation), fondato sull’uso progressivo e proporzionato degli strumenti di controllo: si privilegiano, in una prima fase, metodi a basso attrito per l’utente, quali la stima dell’età, riservando l’attivazione di verifiche più invasive soltanto ai casi di incertezza. Tale impostazione riflette un tentativo di bilanciamento tra l’esigenza di tutela del minore e quella di salvaguardia della privacy e dell’anonimato, evitando soluzioni indiscriminatamente intrusive. Quanto alle metodologie di age assurance, vengono individuati tre principali categorie di strumenti ritenuti accettabili. In primo luogo, la stima dell’età (age estimation), basata su analisi biometriche, facciali o vocali, che deve tuttavia prevedere l’uso di zone cuscinetto (buffer zones) per compensare i margini di errore intrinseci a tali tecnologie. In secondo luogo, l’inferenza dell’età (age inference), che si fonda sulla deduzione dell’età a partire da modelli comportamentali, modalità di interazione, linguaggio utilizzato e dati storici dell’account. Infine, la verifica dell’età (age verification) mediante documenti di identità: soluzione che, pur ammessa, non può essere imposta in via esclusiva, dovendo le piattaforme offrire alternative ragionevoli, a tutela della riservatezza e dell’anonimato degli utenti. Un’attenzione specifica è riservata alla gestione degli account, distinguendo tra quelli già esistenti e quelli di nuova creazione. Per gli account creati prima di dicembre 2025, le piattaforme sono tenute a individuare e rimuovere quelli riconducibili a minori, utilizzando i dati già nella loro disponibilità – quali l’anzianità dell’account, i pattern di utilizzo e i segnali di localizzazione – al fine di identificare i probabili under 16. Per i nuovi account, invece, devono essere adottate misure robuste sin dalla fase di iscrizione, tali da impedire che i minori respinti possano tentare immediatamente una nuova registrazione attraverso la modifica della data di nascita o il ricorso a strumenti di elusione, come le reti VPN. Particolarmente significativa, sul piano dei principi, è l’attenzione dedicata alle modalità di rimozione degli account che deve essere accompagnata da una comunicazione chiara, dalla possibilità per l’utente di scaricare i propri dati e dalla predisposizione di percorsi di supporto per il benessere mentale, riconoscendo così che l’esclusione dall’ambiente digitale può produrre effetti rilevanti sul piano emotivo e relazionale. Sul versante dell’enforcement, l’autorità competente (eSafety) adotta un approccio basato sul rischio, concentrando l’azione di monitoraggio sulle piattaforme con il maggior numero di utenti minorenni o caratterizzate da modelli di design particolarmente additivi. Le sanzioni previste per il mancato rispetto degli obblighi sono di entità significativa, potendo raggiungere fino a 49,5 milioni di dollari australiani, a conferma della volontà del legislatore di assicurare un’effettiva deterrenza.

Altra proposta di legge che merita attenzione è quella adottata dall’Assemblea Nazionale francese il 26 gennaio 2026, volta a proteggere i minori dai rischi connessi all’uso dei social network. Tale intervento normativo, destinato a entrare in vigore a partire dal 1° settembre 2026, segna un ulteriore passo verso una concezione strutturale della tutela, non più affidata esclusivamente a misure educative o a responsabilità diffuse. Il fulcro della disciplina è rappresentato dall’introduzione di un divieto esplicito di accesso ai servizi di social network per i minori di quindici anni, con l’esclusione di talune categorie di servizi che, per loro natura, non presentano analoghi profili di rischio, quali le enciclopedie online, i repertori educativi o scientifici e le piattaforme di sviluppo software. La norma prevede un regime transitorio per gli account già esistenti, consentendone il mantenimento per un periodo di quattro mesi successivo all’entrata in vigore, così da attenuare l’impatto immediato del divieto. La scelta del legislatore francese appare particolarmente significativa non soltanto per la fissazione della soglia anagrafica, ma soprattutto per l’impostazione complessiva dell’intervento, che mira a incidere direttamente sull’architettura giuridica e tecnica delle piattaforme. In tal senso, uno degli elementi di maggiore novità è costituito dalla ridefinizione dello status giuridico dei social network in relazione ai contenuti destinati ai minori. La legge stabilisce, infatti, che qualora una piattaforma suggerisca, organizzi o gerarchizzi contenuti attraverso algoritmi di profilazione – come avviene nei feed personalizzati, nelle sezioni “per te”, nelle tendenze o mediante la riproduzione automatica – essa perda la qualifica di mero prestatore di hosting neutrale e assuma quella di editore. Ne deriva una responsabilità diretta per i contenuti non cronologici proposti ai minori, con un evidente superamento dell’impostazione tradizionale fondata sulla neutralità tecnica dell’intermediario. Accanto a tale ridefinizione della responsabilità editoriale, la normativa interviene in modo incisivo sul modello economico e pubblicitario che ruota attorno alla presenza dei minori sulle piattaforme. È previsto il divieto di qualsiasi forma di pubblicità, diretta o indiretta, a favore dei social network quando essa sia specificamente destinata ai minori. In questa logica si inserisce anche l’obbligo imposto agli influencer che promuovano piattaforme online di accompagnare i propri contenuti con una dicitura chiara e permanente – “prodotti pericolosi per i meno di quindici anni” – idonea a rendere immediatamente percepibile il rischio connesso all’utilizzo di tali servizi. Le piattaforme sono, inoltre, chiamate a garantire che i minori non siano esposti a forme di pressione commerciale eccessiva, confermando l’attenzione del legislatore francese per le dinamiche persuasive insite nell’economia dell’attenzione. La legge affronta, infine, il tema dell’uso dei dispositivi digitali in ambito scolastico a decorrere dal 2026-2027. È previsto il divieto di utilizzo dei telefoni durante le lezioni, salvo diversa indicazione del docente, nonché negli spazi di passaggio quali i corridoi; l’uso è consentito esclusivamente in aree appositamente individuate all’interno del cortile, ferma restando la possibilità per i singoli istituti di adottare regolamenti più restrittivi. Nel suo complesso, la normativa francese si colloca coerentemente all’interno di quel filone regolatorio che, muovendo dalla constatazione degli effetti nocivi dei social network sullo sviluppo psicofisico dei minori, tende a privilegiare misure strutturali e preventive, piuttosto che interventi meramente correttivi o affidati alla sola responsabilità individuale. Essa offre, al contempo, un modello particolarmente avanzato di imputazione della responsabilità alle piattaforme, fondato sulla consapevolezza che la selezione algoritmica dei contenuti non costituisce un’attività neutra, ma un elemento determinante nella formazione dell’esperienza digitale dei minori.

Merita, altresì, attenzione la proposta inglese di Children’s Wellbeing and Schools Bill, destinata a incidere in modo significativo sull’assetto delineato dall’Online Safety Act 2023. Anche in questo caso, l’intervento normativo si colloca nel solco di una crescente sfiducia nei confronti di modelli di tutela fondati sulla sola responsabilità individuale o familiare, privilegiando invece strumenti di tipo strutturale, capaci di incidere direttamente sull’accesso e sull’uso delle piattaforme digitali da parte dei minori, prevedendo anche la possibilità di adottare regolamenti che impongano ai servizi user-to-user, e dunque in primo luogo ai social media, l’adozione di sistemi di age assurance altamente efficaci, con l’obiettivo dichiarato di impedire, anche sul piano tecnico, che i minori di sedici anni possano diventare o rimanere utenti di tali piattaforme. Tali regolamenti, una volta emanati, saranno qualificati come requisiti applicabili ai sensi dell’Online Safety Act 2023, con la conseguenza di inserirsi pienamente nel sistema di obblighi e sanzioni già previsto da quest’ultimo. Particolarmente significativa è la scelta di affiancare all’intervento regolatorio una dimensione esplicitamente sanitaria. Il disegno di legge, infatti, incarica i Chief Medical Officers del Regno Unito di elaborare e pubblicare linee guida ufficiali destinate a genitori e caregiver, concernenti l’uso dei social media in relazione alle diverse fasi dello sviluppo del bambino. In tal modo, il legislatore inglese rafforza il nesso tra tutela digitale e tutela della salute, riconoscendo che l’impatto dei social network sui minori non può essere valutato prescindendo dalle conoscenze medico-scientifiche sullo sviluppo cognitivo ed emotivo. Un ulteriore profilo di particolare rilievo è rappresentato dal contrasto ai fenomeni di elusione delle misure di blocco, affrontato in modo diretto dalla sezione 32 del disegno di legge. Per impedire che i minori aggirino i controlli sull’età o accedano a contenuti vietati simulando una diversa collocazione geografica, la proposta interviene sui servizi di Virtual Private Network (VPN). È previsto che, entro dodici mesi, siano emanati regolamenti volti a vietare la fornitura di servizi VPN ai minori nel Regno Unito; parallelamente, i fornitori di tali servizi saranno tenuti ad adottare sistemi di age assurance altamente efficaci, al fine di verificare l’età degli utenti prima di consentire l’accesso. Si tratta di una scelta che estende l’obbligo di protezione ben oltre i confini tradizionali delle piattaforme social, riconoscendo come l’effettività delle misure dipenda anche dal controllo degli strumenti tecnici di aggiramento. Il disegno di legge interviene, infine, in modo incisivo sull’uso dei dispositivi digitali in ambito scolastico. La sezione 73 introduce un obbligo statutario per tutte le scuole inglesi di adottare, entro dodici mesi dall’approvazione della legge, una politica che vieti l’uso e il possesso di smartphone da parte degli studenti durante l’intera giornata scolastica. Quest’ultima è definita in senso ampio, comprendendo tutto l’arco temporale che va dall’inizio della prima lezione alla conclusione dell’ultima, con eccezioni limitate e puntualmente individuate, quali quelle relative agli studenti del sixth form (cioè tra i 16 e 19 anni) o all’uso di dispositivi per finalità mediche. Nel suo complesso, la proposta inglese si inserisce coerentemente in quella tendenza, ormai chiaramente riconoscibile a livello comparato, che considera la protezione dei minori nell’ecosistema digitale come un obiettivo di interesse pubblico primario, da perseguire attraverso un intreccio di strumenti normativi, tecnici e sanitari. Essa conferma, in particolare, come l’accesso ai social network venga sempre più concepito non già come una mera manifestazione di libertà individuale, ma come un’attività che, per le sue ricadute sullo sviluppo psicofisico del minore, legittima interventi preventivi e limitativi fondati su una responsabilità rafforzata dei soggetti che progettano e gestiscono le infrastrutture digitali.

Anche la Spagna ha un “Proyecto de Ley Orgánica para la protección de las personas menores de edad en los entornos digitales” in cui tra le principali misure previste dalla legge, spiccano l’aumento dell’età minima per la registrazione sui social network a 16 anni – in questo momento è a 14 anni – e l’obbligo per i produttori di terminali che consentono l’accesso a internet di stabilire misure gratuite di protezione per i minori come, ad esempio, un sistema di controllo parentale. Inoltre, si prevede che le scuole devono regolare espressamente l’uso di telefoni cellulari, computer, tablet o qualsiasi dispositivo digitale in classe e in altre attività.

Nell’ambito dei social network, sia le piattaforme che gli influencer avranno l’obbligo di stabilire canali di denuncia, meccanismi di verifica dell’età – nel caso in cui il contenuto diffuso sia potenzialmente dannoso per lo sviluppo fisico, morale o mentale del minore – e rispettare il principio di veridicità delle informazioni fornite.

Anche il Portogallo propone l’innalzamento dell’età a 16 anni per poter accedere in modo indipendente a piattaforme, servizi, giochi e applicazioni varie, mentre gli adolescenti di età compresa tra i 13 e i 16 anni potranno accedervi solo con l’espresso consenso dei loro genitori o tutori legali.

Infine, anche in Italia si sta cercando di modificare l’attuale normativa. In particolare si segnala il progetto di legge 1136 recante “Disposizioni per la tutela dei minori nella dimensione digitale” in cui si prevede che: i) i fornitori di servizi della società dell’informazione (come i social network) devono verificare l’età degli utenti; ii) l’Autorità per le Garanzie nelle Comunicazioni (AGCOM), sentito il Garante Privacy, è incaricata di definire le modalità tecniche per l’accertamento dell’età, garantendo un livello di sicurezza adeguato al rischio e la minimizzazione dei dati raccolti; iii) i contratti conclusi con i fornitori di servizi digitali da minori di 15 anni sono nulli e non possono costituire una base giuridica valida per il trattamento dei dati personali, salvo se conclusi per conto del minore dai genitori o dai tutori;  iv) i fornitori hanno l’onere di dimostrare che il contratto è stato concluso da un soggetto maggiore di 15 anni o con l’assistenza di un genitore.  Ovviamente la previsione del limite di età a 15 anni comporterà l’abrogazione del comma 1 dell’articolo 2-quinquies del Codice Privacy, intervenendo sull’età del consenso digitale (attualmente fissata a 14 anni in Italia). Il disegno di legge mira anche alla tutela dei c.d. “baby influencer” prevedendo regole sulla diffusione dell’immagine di minori di 15 anni sui social media quando questa genera profitti (oltre 10.000 euro annui). In tali casi, infatti, è richiesta l’autorizzazione non solo dei genitori, ma anche della direzione provinciale del lavoro ed è previsto un vincolo sui proventi derivanti dall’attività online del minore, che se superiori alla soglia di 10.000 euro, devono essere versati su un conto corrente intestato al minore stesso e non possono essere utilizzate dai genitori se non per emergenze e previa autorizzazione del tribunale.  Merita di essere segnala la legge n. 132/2025 che all’art. 4, comma 4,  per l’accesso alle tecnologie di intelligenza artificiale da parte dei minori di anni quattordici nonché il conseguente trattamento dei dati personali richiede il consenso di chi esercita la responsabilità genitoriale, nel rispetto di quanto previsto dal regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, e dal codice in materia di protezione dei dati personali, di cui al decreto legislativo 30 giugno 2003, n. 196. È evidente che in caso di aumento del limite di età anche questa norma dovrà essere rivista.

Senza entrare nel dettaglio delle diverse proposte, si segnala che la Danimarca, la Grecia, il Belgio propongono di vietare l’uso dei social network ai minori di 15 anni; l’Austria propone 14 anni; la Germania e il Lussemburgo stanno valutando di spostare il limite di età a 16 anni.

Emerge chiaramente dall’analisi comparata sopra riportata che ancora una volta che se non si procederà con un’uniformazione del limite di età a livello europeo si determinerà una frammentazione del mercato digitale in cui alcuni Stati imporranno età minime (diverse) di accesso ai social network e altri no, con conseguente impatto sulla capacità negoziale dei minori europei.