Instagram pensa a proteggere i giovani, l’ultima funzione bloccherà le foto troppo “osé”, come funziona?

0
16

Una nuova funzione pensata per i più giovani sta per sbarcare su Instagram. Per proteggere i minorenni il social ha deciso di prevedere un filtro per le foto di nudo in grado di riconoscerle in automatico. Poche settimane e dovrebbe essere pronto.

instagram arte
Niente più contenuti “piccanti” senza una protezione apposita per i minorenni. – Androiditaly.com

Da qualche tempo Instagram si sta davvero dimostrando un social molto attento alla tutela dei suoi utenti più giovani. Sono tantissimi i minorenni iscritti sia su questa piattaforma che su TikTok e come hanno dimostrato alcuni casi una supervisione non può mancare. Non solo da parte dei genitori, ma dalle app stesse per prevenire incidenti.

Dopo l’introduzione dell’avviso per fare una pausa ora però Instagram ha deciso di pensare a prevenire l’accesso dei giovanissimi a contenuti…un po’ piccanti. Esiste la possibilità di bannare le foto con dei nudi espliciti in primo piano ma in elaborazione c’è la possibilità di bloccare anche le foto inviate sui Direct.

Nel dettaglio questo speciale filtro, chiamato Nudity Protection, sarà in grado di riconoscere grazie a un’intelligenza artificiale se la foto inviata sia o meno un soggetto nudo. A questo punto l’utente riceverà una notifica che riporterà la possibilità di aver ricevuto immagini esplicite. A questo punto chi sta per ricevere il messaggio potrà decidere se procedere alla visualizzazione o lasciare coperte le foto incriminate.

Quando sarà attivata Nudity Protection?

coprirsi gli occhi
Non si tratta di censura, ma di informazione preventiva verso il pubblico sensibile. – Androiditaly.com

Ci sono da precisare alcuni dettagli relativi a questa nuova funzione. Innanzitutto non sarà attivata in automatico per tutti gli account ma occorrerà attivarla dalle impostazioni dell’account. Quindi gli utenti che non hanno alcun problema verso le immagini più hot non si vedranno per forza arrivare l’avviso a meno che non sia una loro scelta.

Le immagini che la IA identificherà come provocanti saranno coperte solo fino all’assenso dell’utente per proseguire. Inoltre la schermata mostrata in anteprima riporta che Instagram non avrà l’accesso diretto alle foto, ma si baserà solo sul riconoscimento automatico del soggetto. Non potrà infatti salvare o condividere nessuna delle immagini in questione, preservando in ogni caso la privacy degli utenti che le hanno inviate o ricevute.

Nudity Protection verrà come le altre funzioni prima sperimentata fra un pubblico ristretto di utenti e solo successivamente allargata a tutto il social. L’attesa non dovrebbe essere lunga, forse qualche settimana a partire da questo annuncio ufficiale da parte di Meta.

 

🔴 FONTI: www.msn.com

LEAVE A REPLY

Please enter your comment!
Please enter your name here