Des contractuels de la société sont chargés d’écouter certains enregistrements captés par Siri. Parmi eux, des conversations entre médecin et patient, des trafics de drogue ou encore des relations sexuelles.
Apple aussi écoute aux portes. Comme Amazon et Google précédemment, la société de Cupertino est accusée de faire écouter à des humains les conversations captées par Siri. Ces personnes ne sont pas des employés d’Apple, mais des contractuels de société tierces, chargées d’analyser les dysfonctionnements de l’assistant vocal.
D’après un lanceur d’alerte souhaitant rester anonyme et travaillant dans une de ses entreprises, les bribes de conversation écoutées par ces personnes sont enregistrées suite à un déclenchement non sollicité de Siri. Ceux qui possèdent un iPhone, une Apple Watch ou même un HomePod ont souvent expérimenté ce phénomène : l’assistant peut se lancer lorsqu’on prononce un mot ou une phrase à la sonorité proche de « Dis Siri ».
Des conversations gênantes écoutées
Qui dit déclenchement non sollicité, dis donc conversation censée rester confidentielle. C’est là que la situation devient gênante. Le Guardian explique donc que les sujets entendus dans les enregistrements ne devraient jamais être écoutés par un tiers. Les contractuels chargés de les écouter ont ainsi pu tomber sur une consultation entre un patient et son médecin, une discussion d’affaires, un trafic de drogue et même des… ébats sexuels.
Selon le lanceur d’alerte, les conversations ont été enregistrées depuis tous les appareils équipés de Siri : iPhone, iPad, Mac, HomePod ou encore Watch. D’après lui, cette dernière serait particulièrement sujette aux déclenchements intempestifs de l’assistant vocal. En effet, la montre peut se mettre à l’écoute d’une demande dès que l’écran s’allume, sans que l’utilisateur ait besoin de prononcer « Dis Siri ».
Pas d’identification possible selon Apple
Apple tente de rassurer ses clients en expliquant au quotidien britannique que ces enregistrements écoutés par des humains représentent moins de 1 % des activations quotidiennes de Siri. D’autre part, aucun Apple ID n’est associé à ces conversations, rendant ainsi impossible l’identification de la personne qui parle. Toutefois, Apple ne précise nulle part dans ses conditions d’utilisation que des humains peuvent avoir accès à ces enregistrements.
Pour s’en prémunir, la meilleure solution est de désactiver la fonctionnalité Détecter « Dis Siri » depuis la rubrique Réglages de ses appareils. Sur l’Apple Watch, on pourra également désactiver « Lever le poignet » pour éviter que Siri écoute dès que l’écran de la montre s’allume. Sur HomePod, il est également possible de limiter Siri, même si c’est la méthode d’interaction principale.
Ces derniers mois, aussi bien Google qu’Amazon ont également été pointés du doigt pour faire la même chose avec leur Assistant et Alexa. Ces procédés posent également la question de l’intelligence artificielle qui semble ne pas vraiment pouvoir exister par elle-même et sans l’intervention d’humains. Ces derniers sont encore les seuls à pouvoir analyser précisément certains éléments, comme dans ces cas-là, comprendre pourquoi l’assistant s’est déclenché alors qu’on ne l’avait pas sollicité.
Source : The Guardian