Meta rafforza la tutela dei più giovani su Instagram introducendo un sistema basato su AI per identificare chi mente sull’età all’iscrizione. L’obiettivo è migliorare la sicurezza e rispondere alle crescenti pressioni politiche sul rapporto tra social media e salute mentale
Instagram stringe le maglie della sicurezza per i più giovani, e lo fa con l’intelligenza artificiale. La piattaforma di proprietà di Meta sta infatti testando un nuovo sistema che consente di individuare proattivamente gli adolescenti che mentono sull’età al momento dell’iscrizione. L’obiettivo? Proteggere i minori dai rischi legati a un uso non regolato dei social, in particolare quando si tratta di salute mentale.
“Stiamo addestrando i nostri sistemi di intelligenza artificiale a riconoscere segnali specifici, come l’attività dell’account, le informazioni del profilo e il tipo di interazioni con i contenuti, per identificare utenti che potrebbero aver dichiarato un’età non corretta”, ha spiegato Meta in una nota. Finora la piattaforma si era affidata alla stima dell’età attraverso il riconoscimento facciale in collaborazione con aziende terze, ma la nuova strategia punta su un’analisi più capillare e autonoma, in grado di agire anche senza la collaborazione esplicita dell’utente.
Se il sistema rileva discrepanze tra il comportamento dell’account e l’età dichiarata, Instagram potrà riclassificare l’utente come adolescente. Questo significa l’immediata attivazione di impostazioni più restrittive in termini di privacy, contenuti suggeriti e possibilità di interazione con account sconosciuti. Una misura che si inserisce nel contesto di crescenti pressioni sociali, politiche e istituzionali per contenere l’impatto potenzialmente nocivo dei social media sui più giovani.
Il tema è diventato centrale anche nel dibattito legislativo internazionale. Diversi Stati americani stanno avanzando proposte di legge che renderebbero obbligatoria la verifica dell’età per accedere alle piattaforme sociali. Tuttavia, molte di queste iniziative si sono scontrate con ostacoli legali e resistenze da parte delle Big tech. Meta, dal canto suo, ha ribadito che “la responsabilità della verifica dell’età dovrebbe ricadere sugli store di app, non sulle singole piattaforme”, sollevando un tema ancora aperto sul piano normativo.
In un’epoca in cui sempre più giovani vivono e costruiscono la propria identità anche attraverso i social, la battaglia per una Rete più protetta e consapevole passa anche per scelte tecnologiche di questo tipo. L’intervento di Instagram con l’AI rappresenta quindi un passo concreto in direzione di una maggiore responsabilità digitale. La piattaforma tenta così di anticipare ulteriori restrizioni normative, offrendo al tempo stesso un ambiente online più sicuro per adolescenti spesso esposti a contenuti inappropriati o dinamiche relazionali tossiche.
Guardando ai dati del nostro Paese, Instagram è una presenza preponderante nella vita dei giovanissimi italiani: il 76,9% degli studenti tra i 12 e i 18 anni lo usa quotidianamente, con una penetrazione che supera il 79% tra i 16–24enni (dati We are Social). In termini assoluti, conta oltre 27-30 milioni di utenti attivi in Italia, di cui un 35-40% circa ha meno di 25 anni, confermando la centralità della piattaforma per contenuti visivi, intrattenimento e informazione