Medicina o pornografia? Google accusa un uomo con la sua AI, un errore può rovinare una vita

0
78

Google ha accusato un uomo di aver compiuto  un reato molto grave. Potrebbe apparire giusto in tal caso, ma da quel che è emerso sembra che non ci sia nulla di vero: vediamo.

Medicina o pornografia? Google accusa un uomo con la sua AI, un errore può rovinare una vita
Non sappiamo se verranno a galla altre situazioni simili – Androiditaly.com

La storia ha coinvolto un uomo di San Francisco, negli Stati Uniti, a cui Google disabilitò l’account nel 2021 perché aveva scattato diverse foto dell’inguine del figlio per motivi medici. In base all’algoritmo della società, quelle immagini rappresentavano materiale pedopornografico e per questo il padre era stato anche segnalato alla polizia.

Il bambino aveva un dolore al pene e difatti risultava essere gonfio, di conseguenza Mark aveva bisogno di scattare con il proprio smartphone alcune foto della sua zona inguinale. In seguito, per via delle restrizioni per la pandemia da coronavirus, sua moglie programmò un consulto medico online per il giorno seguente: l’infermiera che aveva fissato l’appuntamento le aveva chiesto di inviare alcune foto così che il pediatra potesse vederle prima.

Successivamente, dopo aver scattato queste foto, Mark ricevette una notifica con cui Google lo avvisava di aver disabilitato il suo account a causa di contenuti pericolosi. Stessa cosa successe persino con il servizio Gmail che Mark aveva aperto e quello telefonico Google Fi, impedendogli di chiamare e navigare su Internet. A parte alle e-mail di oltre quindici anni, il padre perse persino le foto e i video che erano stati archiviati sul cloud di Google.

Il precedente caso di false accuse

Medicina o pornografia? Google accusa un uomo con la sua AI, un errore può rovinare una vita
Questo caso è più unico che raro visto e considerato che sia stato trattato da Google – Androiditaly.com

Il New York Times ha affermato che accadde in passato anche a un uomo di Houston, in Texas. Secondo Jon Callas, esperto di tecnologia dell’organizzazione per le libertà civili nell’era digitale Electronic Frontier Foundation, le vicende come queste potrebbero essere molte di più. Non per niente ritengono che i sistemi di controllo e protezione sono fallibili e possono avere conseguenze gravi e inaspettate per le persone che non avevano avuto comportamenti dannosi.

Finiamo con una dichiarazione di Google sulla faccenda, nella quale viene detto che: “Il materiale pedopornografico (CSAM) è ripugnante e siamo impegnati per prevenire ogni sua diffusione sulle nostre piattaforme. Seguiamo la legge statunitense nel definire cosa costituisce CSAM e utilizziamo una combinazione di tecnologia di hash matching e di intelligenza artificiale per identificarlo e rimuoverlo. Inoltre, il nostro team dedicato alla sicurezza dei minori esamina l’accuratezza dei contenuti segnalati e si consulta con esperti pediatri per garantire la possibilità di identificare i casi in cui gli utenti potrebbero richiedere un consiglio medico“.

🔴 Fonte: www.ilpost.it

LEAVE A REPLY

Please enter your comment!
Please enter your name here