Secondo la testata inglese, gli operatori avrebbero ascoltato conversazioni private, dettagli medici e addirittura vendite di droga e rapporti sessuali.
L’assistente virtuale di casa Apple si aggiunge alla lista degli spioni. In pratica, come è già emerso per esempio per Amazon, che infatti ha inserito una apposita opzione in Alexa, una fonte interna a rivelato che le registrazioni di Siri vengono ascoltate da operatori umani.
Ufficialmente lo scopo è quello di misurare e migliorare la qualità del servizio. Ma si tratta comunque di una informazione che lascia diverse ombre sul mondo degli assistenti vocali in generale.
Le registrazioni Siri vanno in giro per il mondo?
Sempre secondo l’inchiesta del Guardian, alcune aziende appaltatrici esterne ad Apple avrebbero accesso a una piccola parte delle registrazioni di Siri, con lo scopo di valutarle, stabilire se l’assistente si è attivato casualmente o lo ha richiesto l’utente e così via,
Secondo una fonte interna del Guardian, fra le conversazioni distribuite alle aziende appaltatrici esterne sarebbe tutt’altro che raro trovare informazioni decisamente personali. Ecco un estratto delle dichiarazioni della fonte anonima del Guardian:
“Ci sono stati innumerevoli casi di registrazioni di discussioni private tra medici e pazienti, affari, trattative apparentemente criminali, incontri sessuali e così via. Queste registrazioni sono accompagnate da dati utente che mostrano la posizione, i dati di contatto e i dati delle applicazioni.”
In teoria, non sono presenti dati strettamente personali che permettano di risalire facilmente allo specifico utente che ha effettuato la registrazione. Inoltre le aziende che lavorano per Apple sono tenute a trattare i dati in modo estremamente confidenziale.
Hei Siri, mi stai spiando?
L’esistenza di così tante conversazioni “problematiche” è dovuta alla modalità di attivazione di Siri (e di tutti gli altri assistenti vocali). In pratica la “tolleranza” sulla parola chiave di attivazione è molto alta e non è raro che si attivino “per sbaglio”.
Il principio è che dal punto di vista dell’esperienza utente è preferibile rispondere troppo invece di non rispondere. Il problema è che spesso, prima che i sistemi di riconoscimento vocale in Cloud si rendano conto del falso positivo, una parte della conversazione è già stata inviata, per essere interpretata. Insomma, buona parte del problema è dovuto agli attuali limiti della tecnologia e al fatto che la maggior parte delle operazioni avviene in cloud.
In pratica, alcune parti della conversazione vengono trasmesse prima che il sistema si renda conto che si tratta di un’attivazione involontaria. E teoricamente questi brandelli di conversazione servono proprio a eliminare il più possibile le attivazioni accidentali.
Il “campione” delle registrazioni Siri accidentali è HomePod
Sempre secondo la fonte del Guardian, la maggiore incidenza delle registrazioni involontarie arriva da HomePod, lo smart speaker di Apple, ma non mancano anche registrazioni da altre fonti. Fra i casi più eclatanti racconta di una conversazione fra medico e paziente, in cui si discute la storia clinica della persona. Ma anche un evidente caso di spaccio di droga, con il rumore di un’auto in sottofondo, e diversi casi di persone registrate durante l’intimità.
Un problema che finora era noto per gli altri assistenti vocali, e non era difficile immaginare che coinvolgesse anche Apple. La differenza principale è nel comportamento dell’azienda. Al momento infatti il colosso di Cupertino non permette agli utenti di bloccare l’invio di registrazioni. Opzioni che invece sono presenti sia in Alexa di Amazon sia negli smart speaker di Google.
Fonte foto copertina: discussions.apple.com/thread/8546083