« On parle d’un système de surveillance massif », dénonce un ancien analyste de données d’Apple
Source : francetvinfo.fr – 24 mai 2023
Abonnez-vous au canal Telegram Strategika pour ne rien rater de notre actualité
Pour nous soutenir commandez les livres : “Globalisme et dépopulation” et « La guerre des USA contre l’Europe » édités par Strategika
« On est en train de parler d’une situation où vous êtes susceptible d’être enregistré à tout moment », explique l’analyste qui a démissionné quelques mois seulement après son embauche chez un sous-traitant du géant américain.
Entretien vidéo, ici : https://www.francetvinfo.fr/internet/apple/entretien-on-parle-d-un-systeme-de-surveillance-massif-denonce-un-ancien-analyste-de-donnees-d-apple_5844608.html
« Je n’avais pas de smartphone et je ne compte pas en avoir », affirme mercredi 24 mai sur franceinfo Thomas Le Bonniec, ancien analyste de données d’un sous-traitant d’Apple. Enregistrements aléatoires, conversations intimes… Depuis 2020, il ne cesse de raconter comment le géant du numérique surveille massivement ses clients, et ce, malgré sa clause de confidentialité. « On parle d’un système de surveillance massif », dénonce-t-il sur franceinfo indiquant, en quelques mois, avoir écouté au moins 46 000 conversations. La plupart, sans le consentement des usagers.
franceinfo : En 2019, vous avez été embauché en Irlande par un sous-traitant d’Apple. En quoi consistait votre travail ?
Thomas Le Bonniec : C’est assez simple : il s’agissait d’écouter des enregistrements qui étaient réalisés à partir de l’assistant vocal d’Apple, l’assistant Siri. Ce qui veut dire qu’il y a bien des oreilles « humaines » derrière cet assistant vocal. L’idée, c’était d’améliorer le système pour éviter des erreurs de recherche. En tout cas, c’est ce que dit Apple. Mais en réalité, au vu des données qui sont collectées et qui sont recoupées, l’assistant vocal sert aussi à regrouper davantage d’informations et à informer, par exemple, le profil l’utilisateur. Pendant cette période, j’ai pu écouter tout ce que vous pouvez imaginer que quelqu’un dirait dans une situation très intime. J’ai entendu des gens qui parlaient de l’orientation politique, de leur affiliation syndicale, de leur sexualité, beaucoup aussi de leur situation personnelle.
Cela veut dire que les gens posent ces questions à Siri ou ce sont des enregistrements involontaires ?
Alors il y a effectivement des déclenchements de l’assistant vocal qui sont involontaires, et ça, il fallait les traiter également. Et par ailleurs, il y a deux situations de dénonciation principales. Pour Siri, c’est lorsque vous passez une commande ou lorsque vous dictez un message. Et ça, c’est ce qui était censé être entendu par les data analystes. Il y a des déclenchements aléatoires qui se font : c’était ce qu’on entendait régulièrement, des choses très intimes. Et on entendait aussi, de temps en temps, des enregistrements de personnes qui s’amusaient d’entendre, de voir, l’assistant vocal se déclencher de manière aléatoire et aussi des bruits de fond, des gens qui ne savaient pas qu’ils étaient enregistrés à ce moment-là.
Combien de ces enregistrements vous avez écouté chaque jour ?
1 300. J’en ai écouté au moins 46 000 durant la période où j’y ai travaillé.
« On avait une obligation de quantité. Il fallait en faire au moins 1 300 par jour. »
On parle de centaines de personnes en Europe, donc en Irlande, en Espagne, il y en avait à Paris également, mais aussi dans le monde entier.
Ces enregistrements sont-ils conservés ?
Probablement. On sait en tout cas qu’ils servent. Je sais qu’ils étaient ensuite recoupés avec d’autres données, issues du même appareil. Donc vous avez d’autres personnes qui sont payées à faire de l’étiquetage, qui entendent l’enregistrement et qui voient si, parmi les données de l’utilisateur, on peut retrouver par exemple un contact. Vous dites ‘J’appelle maman’ : il faut trouver dans les contacts de l’utilisateur quelqu’un qui s’appelle maman. Et cela concerne aussi les notes dictées au smartphone et les textos : ça concerne tout ce que vous dites à votre assistant vocal ou autour de votre assistant vocal. C’est pour ça que c’est hyper inquiétant. On est en train de parler d’une situation où vous êtes susceptible d’être enregistré à tout moment.
Ce que vous racontez remonte à 2019. Est-ce que vous savez si ça existe encore aujourd’hui ?
Apple a fait une annonce en octobre 2019 avec quelques changements cosmétiques. Mais en réalité, le programme continue d’exister tel quel. Et Apple n’est pas seul à pratiquer cette méthode. En 2019, la raison pour laquelle il y a eu un tel tollé, c’est aussi parce qu’on s’est rendu compte qu’ils faisaient tous pareil.
« Google, Amazon, Microsoft, tous les assistants vocaux se comportent de la même manière. »
Comment peut-on se protéger ?
Le problème, c’est qu’on a des agences de protection des données en Europe qui sont censées faire ce travail. Il y a un blocage au niveau de l’agence irlandaise, qui est en train de faire de l’obstruction depuis des années maintenant sur ce dossier comme sur tout un tas d’autres. Donc on n’est pas défendus à ce niveau-là. Au niveau du politique également, il faudrait qu’il se passe quelque chose. De manière très concrète, il faudrait envisager la voie judiciaire pour les personnes qui ont été victimes de ces enregistrements abusifs. Vous pouvez parier qu’il est plus probable que vous l’ayez été, plutôt que vous ne l’avez pas été, et même que vos données aient été utilisées et traitées à un moment ou à un autre par Apple, même si vous n’êtes pas un utilisateur d’Apple. En termes d’hygiène numérique, vous avez tout intérêt à désactiver votre assistant vocal, surtout si vous ne vous en servez pas.
Pourquoi avez-vous décidé de quitter votre emploi quelques mois seulement après votre embauche ?
Parce qu’on est en train de parler d’un système de surveillance massif et généralisé. On parle de surveillance commerciale. On est en train de parler d’enregistrements qui sont effectués sans le consentement, sans la connaissance des personnes qui sont concernées et ils sont lésés. Ça nous concerne tous. On est en train de parler aussi d’une manière de démontrer que la protection de la vie privée, ce n’est pas une affaire individuelle, mais c’est une affaire collective. Ce n’est pas parce que vous n’avez pas un appareil Apple que vos données n’ont pas été traitées. Il suffit que moi, je sois dans les contacts de quelqu’un qui a un iPhone pour que mes données soient traitées par Apple ou que je me trouve à proximité d’un assistant vocal.
Tout ce que vous racontez, en théorie, vous n’avez pas le droit de le dire puisque vous êtes soumis à une clause de confidentialité que vous avez signée dans votre contrat. Qu’est-ce que vous risquez ?
Sur le principe, je crois que tous les dommages économiques qu’Apple pense avoir subi en raison de ces témoignages pourraient m’être imputés. Je serais probablement en banqueroute pour le restant de ma vie. Une procédure est lancée aux États-Unis auprès de l’organisme des marchés financiers pour faire annuler cette clause, car elle est probablement illégale. Elle consiste à me demander, non seulement, de ne pas parler de ce programme à des collègues ou à des proches et à des journalistes, mais aussi à des autorités publiques. Et à ce moment-là, cela contrevient au droit américain. Si on transpose en droit français, cela voudrait dire que le Code pénal et le Code du travail, ça ne vaut pour rien. Cette clause de confidentialité serait au-dessus du droit.
Ping :« On parle d’un système de surveillance massif », dénonce un ancien analyste de données d’Apple — Der Friedensstifter
Ping :Hashim Thaçi, le Kosovo et les trafics d’organes — Der Friedensstifter