Attention : *Confidentialité non incluse avec ce produit
Pas si vite ! CrushOn comporte du contenus vraiment dérangeant. Soyez prudent avant de cliquer.
Les partenaires de conversation de CrushOn.AI sont des personnages animés. Vous pouvez même créer le vôtre ! Un rapide coup d’œil à leur catalogue confirme que l’art est le reflet de la vie, puisque vous y retrouverez des visages familiers. Cela signifie que si vous avez toujours rêvé d’une discussion animée avec Sailor Moon, Sonic le hérisson, Ghostface (des films Scream) ou un homme musclé avec une pyramide à la place de la tête, votre longue attente est terminée. Malheureusement, avant de pouvoir envoyer vos messages privés, vous devrez parcourir un réseau de sites web très confus et douteux, dont la légalité n’est pas toujours évidente. On y trouve une page App Store déserte de tout contenu, une fausse page dédiée à un chatbot concurrent qui renvoie sur CrushOn, et une page « CrushOn pro » qui mène à un autre chatbot réservé aux adultes. Ensuite, on constate que la page Google Play Store renvoie à aux conditions d’utilisation d’Apple au lieu de celles de la société. Pourquoi ? Tout ceci, ajouté à nos trois avertissements et à un contenu effrayant, signifie que CrushOn.AI se voit attribuer la mention *Confidentialité (définitivement) non incluse.
Que pourrait-il se passer en cas de problème ?
Nous avons été pris de vertige en creusant un peu la question de CrushOn et un examen plus approfondi n’a rien arrangé. La politique de confidentialité de CrushOn révèle que la société recueille des données très sensibles, y compris des informations sur votre santé mentale et physique, et qu’elle est autorisée à les partager ou à les utiliser dans le cadre de ses activités commerciales. Bien qu’ils ne communiquent pas sur la question, nous craignons que vos données soient compromises, car nous ne pouvons pas confirmer que CrushOn se conforme à nos normes de sécurité minimales.
Autre point : les chatbots de CrushOn semblent avoir été conçus pour enfreindre les conditions d’utilisation de l’application et les normes de la communauté. On ne peut donc s’empêcher de se demander qui sera tenu pour responsable si votre conversation venait à passer en « zone interdite »… Et il semblerait bien que ce soit vous. Bien que l’idée de créer votre propre personnage et d’entamer une conversation avec lui vous semble amusante, nous ne saurions la recommander : CrushOn.AI se voit probablement attribuer la mention *Confidentialité non incluse.
Voici une information que tous les utilisateurs devraient connaître avant d’utiliser CrushOn. Il semble qu’il y ait un énorme fossé entre les petits caractères des directives communautaires et des conditions d’utilisation et ce qui semble se passer réellement sur l’application et le site web. Sur la première page consacrée aux partenaires de conversation réservées aux adultes générés par l’IA de son site web, CrushOn affiche des personnages dont les images et les descriptions évoquent des éléments « dérangeants ». Mais beaucoup de ces « éléments dérangeants » vont explicitement à l’encontre des directives communautaires de CrushOn. Et lorsque vous ouvrez une fenêtre de conversation, une petite clause de non-responsabilité apparaît : « Tous les propos de l’IA sont fictifs ! Veuillez respecter les lois locales. Vous n’êtes pas autorisé à discuter de mineurs, de suicide ou de sujets criminels ». Mais juste en dessous, un paragraphe d’introduction du personnage inclut parfois d’emblée des descriptions relatives à ces sujets interdits. C’est déroutant, trompeur et, associé au labyrinthe de sites web, réels ou fictifs, associés à CrushOn, nous nous posons la question de savoir si l’on peut confier des informations sensibles à ce service.
Et c’est inquiétant car CrushOn peut collecter BEAUCOUP d’informations personnelles sensibles à votre sujet. En plus des informations relatives à votre compte, comme vos coordonnées et vos informations bancaires, CrushOn peut collecter des données audio et visuelles (comme des messages vocaux et d’autres enregistrements), des informations concernant votre appareil ou votre navigateur (comme l’adresse IP), des données de localisation, des données d’identité (comme vos origines ethniques, votre âge et votre sexe) et des données biométriques (comme des images de votre visage, des dynamiques de frappe au clavier et des enregistrements de votre voix). Bon sang de bonsoir ! CrushOn peut également collecter une quantité surprenante de données relatives à la santé. Les « données de santé » sont mentionnées à 23 reprises dans la politique de confidentialité. Ces informations peuvent inclure « des conditions de santé individuelles, des traitements, des maladies ou des diagnostics ; des interventions sociales, psychologiques, comportementales et médicales ; l’usage de médicaments prescrits ; des informations sur les soins adaptés aux personnes transgenre’; des informations sur la santé reproductive ou sexuelle » et bien plus encore. Mais pourquoi donc ? À ce rythme, CrushOn pourrait en savoir plus sur vous que vos proches.
Par quels moyens obtiennent-ils ces informations ? Faisons le point sur la question. La politique de confidentialité indique que les conversations et la création de personnages sont une source d’informations personnelles et de santé. Elle précise également que ces informations peuvent être utilisées pour « entraîner des modèles d’intelligence artificielle » et pour cette vague notion de « raisons commerciales ». Nous n’aimons pas entendre cela. CrushOn peut également collecter des données personnelles automatiquement à partir de votre appareil et auprès de tiers (comme les réseaux sociaux et les prestataires de services). Et CrushOn peut utiliser tous ces types d’informations personnelles à des « fins commerciales », ce qui inclut les publicités et le marketing, conformément à la politique de confidentialité. Ça alors ! Il est curieux que la politique de confidentialité de CrushOn semble admettre que vos conversations à caractère sexuel peuvent contenir des informations très sensibles, mais qu’elle ne semble pas prévoir un traitement différent de ces données. C’est une décision audacieuse, CrushOn. Oh, et avons-nous mentionné que CrushOn est autorisé à « créer et déduire » des données vous concernant, en se basant sur les autres informations connues à votre sujet ? Ces données peuvent également être utilisées à des « fins commerciales » et à des « fins économiques ».
Soyons honnêtes, tout cela donne une bien triste image de la protection de la vie privée chez CrushOn. Mais nous avons également quelques inquiétudes en matière de sécurité. Nous ne pouvons pas déterminer si ces informations très sensibles sont chiffrées et dans quelle mesure CrushOn parvient à gérer les vulnérabilités en matière de sécurité. C’est effrayant, car cela signifie que le risque que vos informations soient divulguées par erreur ou exploitées par des personnes mal intentionnées est beaucoup plus grand. En ce qui concerne l’accès à vos données par des tiers, CrushOn indique également pouvoir partager vos informations personnelles (qui incluent potentiellement vos informations de santé !) avec des tiers (comme des revendeurs, des prestataires de services, et dans le cadre d’une « divulgation légale ») et avec des sociétés affiliées (comme leur société mère Peekaboo Tech Inc. ainsi que Peekaboo Tech Ltd. et Peekaboo Game Ltd.) Cela fait un sacré paquet de problèmes potentiels en matière de protection de la vie privée !
Tout cela suscite beaucoup d’inquiétudes. Nous craignons (tout comme CrushOn) que les humains puissent prendre à cœur les propos dérangeants des chatbots. Et nous sommes inquiets quant à la nature des propos tenus par les chatbots, en particulier à l’égard des mineurs. Ce qui nous amène à une autre inquiétude. Oui, la politique de confidentialité indique que les utilisateurs doivent être âgés de plus de 18 ans, mais il suffit de cocher une case pour le « prouver ». Et comme nous l’avons déjà mentionné, nous nous inquiétons de savoir qui sera tenu pour responsable si votre conversation dérape par rapport à ce qui est techniquement autorisé par les directives communautaires (que vous acceptez implicitement dans le cadre des conditions d’utilisation). En effet, même si les conditions stipulent que vous autorisez CrushOn à utiliser (ou « reproduire, distribuer, utilser dans le cadre d’activités dérivées, afficher, publier, diffuser, exécuter, fabriquer, utiliser, importer, proposer à la vente, vendre… ») le contenu que vous soumettez, vous restez en fin de compte « seul responsable de vos propres soumissions d’utilisateur et des conséquences de leur affichage ou de leur publication ».
Et « CrushOn coopérera pleinement avec les autorités chargées de l’application de la loi ou les tribunaux qui demandent ou ordonnent à CrushOn de divulguer l’identité de toute personne violant ces [conditions d’utilisation] ». Ces conditions mentionnent également que CrushOn n’est pas légalement responsable en cas d’incident résultant de l’utilisation du service. Plus précisément, il est indiqué : « EN AUCUN CAS LES PARTIES CRUSHON, APPLE OU GOOGLE NE SERONT RESPONSABLES À VOTRE ÉGARD OU À L’ÉGARD D’UN TIERS DES DOMMAGES DIRECTS, INDIRECTS, INCIDENTAUX, SPÉCIAUX, PUNITIFS OU RÉSULTANT DE L’UTILISATION DU SERVICE ». Et cela, bien sûr, nous inquiète aussi parce qu’il arrive que de vilaines choses se produisent lors de conversations romantiques avec un chatbot généré par l’IA.
Qu’est-ce qui pourrait arriver de pire avec CrushOn ? Nous craignons que le caractère bricolé des chatbots d’IA romantiques de CrushOn n’encourage les utilisateurs à dévoiler leur côté excentrique, ce qui, ne vous méprenez pas, n’a absolument rien d’anormal. Ce qui nous préoccupe, c’est qu’en laissant libre cours à votre côté fantasque, vous pourriez révéler des informations très personnelles et vulnérables à une entreprise qui n’a pas les meilleures pratiques en matière de confidentialité, de sécurité et de transparence en matière d’intelligence artificielle. Autrement dit, toutes les conversations que vous avez eues avec l’homme à la tête de pyramide et qui révèlent votre souhait de piller la tombe du roi Tut pourraient être utilisées contre vous, soit parce qu’elles ont été divulguées par erreur, soit parce qu’elles ont été partagées à des fins de marketing. Nous ne sommes pas sûrs que ces publicités en valent la peine.
Conseils pour vous protéger
- Ne divulguez pas d’informations sensibles lors de vos conversations avec votre partenaire généré par l’IA.
- Exigez la suppression de vos données lorsque vous cessez d’utiliser l’application. La simple suppression d’une application de votre appareil ne permet généralement pas d’effacer vos données personnelles ni de clôturer votre compte.
- Ne consentez pas au suivi continu de votre géolocalisation par l’application. Il est préférable de fournir la géolocalisation « uniquement pendant l’utilisation de l’application ».
- Ne partagez pas de données sensibles via l’application.
- N’autorisez pas l’accès à vos photos et vidéos ou à votre appareil photo.
- Ne vous connectez pas par le biais de comptes tiers.
- Ne vous connectez pas à un service tiers via l’application, ou assurez-vous au minimum que ce dernier adopte des pratiques décentes en matière de protection de la vie privée.
- Ne divulguez pas d’informations sensibles lors de vos conversations avec votre partenaire généré par l’IA.
- Choisissez un mot de passe compliqué. Vous pouvez utiliser un gestionnaire de mots de passe comme 1Password, KeePass, etc.
- N’utilisez pas de plug-ins de médias sociaux.
- Utilisez les contrôles de confidentialité de votre appareil pour limiter l’accès à vos informations personnelles via l’application (ne donnez pas accès à votre caméra, microphone, images et emplacement, sauf si nécessaire).
- Mettez votre application à jour régulièrement.
- Limitez le suivi publicitaire via votre appareil (par exemple, sur iPhone, accédez à Confidentialité puis Publicité et Limiter le suivi publicitaire) et les plus grands réseaux publicitaires (pour Google, accédez à votre compte Google et désactivez la personnalisation des annonces).
- Lorsque vous vous inscrivez, n’acceptez pas le suivi de vos données, dans la mesure du possible.
Ce produit peut-il m’espionner ?
Caméra
Appareil : Ne s’applique pas
Application : Non
Microphone
Appareil : Ne s’applique pas
Application : Non
Piste la géolocalisation
Appareil : Ne s’applique pas
Application : Oui
Que peut-on utiliser pour s’inscrire ?
Adresse e-mail
Oui
Téléphone
Non
Compte tiers
Oui
Inscription possible par le biais de Google, d’Apple et de Discord
Quelles données l’entreprise collecte-t-elle ?
Personnelles
Données audiovisuelles : vidéo, images, enregistrements, images d’avatars, photos de personnages, messages vocaux et autres enregistrements ; Données de contact : adresse électronique, adresse postale, numéro de téléphone ; Données relatives à l’appareil/au réseau : identifiants de l’appareil, adresse IP, identifiants des cookies, historique des sessions, métadonnées de navigation ; Autres données générées par le biais de cookies et de technologies similaires ; Données à caractère financier : coordonnées bancaires, informations relatives aux cartes de paiement, informations pertinentes en rapport avec les transactions financières ; Données générales de localisation : Données de localisation non précises, par exemple : informations de localisation dérivées des adresses IP ; Données d’identité : nom, sexe, ethnicité, date de naissance, âge et/ou tranche d’âge, détails de connexion au compte, autres identifiants de compte/noms d’utilisateur ; Données d’inférence : préférences, caractéristiques, aptitudes, segments de marché, goûts, favoris ou centres d’intérêt ; Données de transaction : Informations sur les transactions ; Contenu de l’utilisateur : session de conversation avec l’IA.
Corporelles
« Conditions de santé individuelles, traitement, maladies ou diagnostic ; interventions sociales, psychologiques, comportementales et médicales ; usage de médicaments prescrits ; informations sur les soins adaptés au personnes transgenre ; informations sur la santé reproductive ou sexuelle ; données identifiant un consommateur sollicitant des « prestations de santé » conformément à la loi « My Health My Data Act » de l’État de Washington ; déductions ; Données biométriques. »
Sociales
Comment l’entreprise utilise-t-elle les données ?
Comment pouvez-vous contrôler vos données ?
Quel est l’historique de l’entreprise en matière de protection des données des utilisateurs et utilisatrices ?
Aucune fuite de données connue n’a été découverte au cours des trois dernières années.
Informations liées à la vie privée des enfants
Ce produit peut-il être utilisé hors connexion ?
Informations relatives à la vie privée accessibles et compréhensibles ?
Liens vers les informations concernant la vie privée
Ce produit respecte-t-il nos critères élémentaires de sécurité ?
Chiffrement
Nous ne pouvons pas confirmer le chiffrement des données au repos et en transit pour cette application.
Mot de passe robuste
Mises à jour de sécurité
Gestion des vulnérabilités
Politique de confidentialité
Nous ne sommes pas en mesure de confirmer si l’IA utilisée par ce produit est digne de confiance, car il n’existe que peu ou pas d’informations publiques sur le fonctionnement de celle-ci et sur les mécanismes de contrôle mis à la disposition des utilisateurs pour garantir la sécurité du produit. Nous avons également relevé des éléments troublants dans le contenu de l’application. En outre, nous nous inquiétons du risque de manipulation des utilisateurs par cette application, qui recueille des informations personnelles sensibles qu’elle peut utiliser pour entraîner des modèles d’IA, et les utilisateurs n’ont que peu voire pas de contrôle sur ces algorithmes d’IA.
Les utilisateurs peuvent créer leurs propres chatbots ou interagir avec ceux créés par d’autres utilisateurs/créateurs de l’application. La plate-forme comporte de une grande quantité de contenus nuisibles, qui sont facilement accessibles.
Cette IA est-elle non digne de confiance ?
Quel genre de décisions l’IA prend-elle à votre sujet ou pour vous ?
L’entreprise est-elle transparente sur le fonctionnement de l’IA ?
Les fonctionnalités de l’IA peuvent-elles être contrôlées par l’utilisateur ou l’utilisatrice ?
Pour aller plus loin
-
5 Things You Must Not Share With AI ChatbotsMake Use Of
-
AI girlfriends are ruining an entire generation of menThe Hill
-
‘Cyber-Heartbreak’ and Privacy Risks: The Perils of Dating an AIRolling Stone
-
AI-Human Romances Are Flourishing—And This Is Just the BeginningTime
Commentaires
Vous avez un commentaire ? Dites-nous tout.