Attention : *Confidentialité non incluse avec ce produit
Sur son site internet, la société Romantic AI pose la question suivante : « Avez-vous déjà rêvé de la petite amie idéale ? » Évidemment, comme tout le monde ! Pour environ 7 dollars par semaine, Romantic AI vous propose de créer votre propre chatbot IA de rêve ou de communiquer avec des personnages générés par l’IA déjà existants. Votre Romantic AI dispose de deux modes : général ou romantique. La société nous paraît cependant quelque peu… disons… douteuse avec des déclarations telles que : « Tu veux être un petit ami brutal ? Elle se montrera très coopérative avec toi ! », tout en affirmant que « l’IA de Romantic IA maintient votre SANTÉ MENTALE ». Nous ne savons pas ce qu’il en est de tout cela, mais nous sommes certains d’avoir des inquiétudes quant à la protection de notre vie privée. Peut-être pas autant qu’avec d’autres chatbots relationnels générés par l’IA, mais nous avons certainement des questions à poser.
Que pourrait-il se passer en cas de problème ?
Voici notre point de vue sur Romantic AI et ses pratiques en matière de protection de la vie privée, de sécurité et d’IA, nous avons des questions, beaucoup de questions !
En lisant la politique de confidentialité de la société, vous y trouverez des passages que les experts en matière de protection de la vie privée apprécient. Des choses comme : « Nous ne louons ni ne vendons vos informations à qui que ce soit. La communication avec vos amis virtuels n’est partagée avec aucune autre entreprise, à l’exception de nos sociétés affiliées, de nos représentants légaux ou de nos services ». Ou encore : « Nous ne vendrons jamais vos données personnelles à un tiers et nous ne donnerons jamais à un tiers l’accès à vos données personnelles, sauf dans les cas prévus dans nos conditions de service et/ou dans la présente politique, ou à moins que la loi ne l’exige ». Ces lignes semblent plutôt rassurantes. Nous apprécions le fait que la société déclare qu’elle ne vendra et noue louera pas vos informations. Fantastique ! Il est également précisé que les informations personnelles ne sont partagées qu’avec des sociétés affiliées ou des représentants légaux, ce qui est tout à fait normal et acceptable, sauf que nous ne savons pas vraiment qui sont ces sociétés affiliées ou ces « services », ce qui nous met un peu la puce à l’oreille.
Une autre bonne nouvelle pour les utilisateurs est que Romantic AI semble leur donner à tous les mêmes droits de suppression de leurs données, quelles que soient les lois sur la protection de la vie privée en vigueur dans leur pays, ce qui nous fait toujours plaisir chez *Confidentialité non incluse : « Vous êtes en droit, à tout moment, de modifier ou de supprimer vos données personnelles en supprimant votre profil dans l’application ou sur le site web ». Ils ont même prévu une page dédiée pour vous aider à le faire ! C’est beau !
Une dernière chose que nous apprécions dans les documents juridiques de Romantic AI, c’est que la société indique de quelle manière elle collectera et utilisera le contenu des conversations avec les petites amies générées par l’IA pour entraîner ses modèles d’intelligence artificielle. Nous nous réjouissons de cette précision et nous constatons que trop de chatbots d’IA n’incluent pas ces informations. La société précise : « Vous reconnaissez et acceptez que, lors des interactions avec les chatbots d’IA, les données anonymes générées par ces interactions peuvent être collectées et utilisées dans le but d’améliorer et d’entraîner les modèles d’IA romantiques. Vous consentez expressément à l’utilisation de ces données et comprenez qu’elles n’incluront pas d’informations permettant de vous identifier personnellement. Vous reconnaissez et acceptez en outre que vous n’avez aucune revendication ou propriété sur les données collectées à ces fins, et vous renoncez à tout droit ou réclamation lié à l’utilisation de vos données anonymes pour l’entraînement des modèles ». Voilà qui a le mérite d’être honnête.
Nous aimerions cependant que Romantic AI donne aux utilisateurs la possibilité d’accepter ou de refuser ce type d’utilisation de données pour entraîner des modèles d’IA, plutôt que d’en faire une obligation pour utiliser le service. Nous devons également nous interroger sur le degré d’anonymat de ces données, alors que ces conversations sont souvent conçues pour être très personnelles. C’est un bon moment pour se souvenir qu’il vaut mieux rester vague lorsque l’on partage des informations personnelles avec un chatbot généré par l’intelligence artificielle.
Mais alors, quel est le problème ? En réalité, il arrive que les documents relatifs à la politique de confidentialité et aux conditions générales d’utilisation de l’IA romantique n’aient aucun sens. Ce constat est regrettable et ne nous donne pas l’impression de pouvoir leur faire confiance. Voici quelques exemples :
Tout en bas de la politique de confidentialité de Romantic AI, on peut lire : « Notre site internet, notre application et l’utilisation que vous en faites, y compris toute question relative à la vie privée, sont soumis à la présente politique de confidentialité et aux conditions d’utilisation qui s’y rapportent. Lorsque vous utilisez Romantiс AI, vous acceptez les conditions énoncées dans la présente politique de confidentialité et les conditions d’utilisation correspondantes. Vous reconnaissez et garantissez que vous ne générerez jamais de bases de données, de sites web, de logiciels, d’entités juridiques et de services qui font concurrence à Romantiс AI. Un tel comportement fera l’objet d’une enquête approfondie, et les actions légales nécessaires seront menées, y compris, sans limitation, les sanctions civiles, pénales et les mesures d’injonction. » Cette déclaration nous paraît curieuse pour plusieurs raisons. Tout d’abord, cette ligne ne se trouve généralement pas dans un document relatif à la politique de protection de la vie privée, mais plutôt dans le document relatif aux conditions générales. Bon, pourquoi pas. La question la plus importante est la suivante : POURQUOI DIANTRE ? La clause en gras est rédigée de manière si vague qu’elle suggère que si vous êtes employé par une autre société de chatbot (Replika AI ou ChatGPT, par exemple) et qu’il vous arrive d’utiliser Romantic AI, vous pourriez être en violation de cette politique de confidentialité simplement en vous rendant sur le site web de Romantic AI. C’est tout bonnement incompréhensible. Et même si nous reconnaissons qu’il s’agit probablement d’une section mal rédigée de leur politique de confidentialité, nous tirons la sonnette d’alarme.
Les conditions générales d’utilisation de Romantic AI sont elles aussi un peu brouillonnes. Par exemple, cette phrase qui n’a vraiment aucun sens : « Vous reconnaissez que la communication via le chatbot appartient au logiciel ». Et celle-ci, qui semble un peu plus cohérente, mais qui reste confuse (et qui rappelle que les chatbots IA avec lesquels vous discutez ne sont pas sous votre contrôle… ou peut-être sous le contrôle de qui que ce soit) : « Vous reconnaissez que vous communiquez avec un logiciel dont nous ne pouvons pas contrôler l’activité en continu ». Enfin, si vous vous demandez quelle quantité de travail vous allez avoir à faire pour utiliser Romantic AI, sachez que la société précise : « Il est de votre responsabilité de vous informer et de revoir périodiquement toutes les présentes conditions pour vérifier si des modifications y ont été apportées. Romantic AI ne sera pas responsable de votre manquement à vos droits légaux ». Ils ont raison ! Fixez des rappels sur votre calendrier pour lire les documents juridiques qui concerne votre petite amie générée par l’IA toutes les semaines ou deux. Après tout, il ne faudrait pas que vous « négligiez vos droits légaux » en vous tenant au courant des décisions de ses avocats. Bon sang de bonsoir !
Oh, et vous vous souvenez que nous avons dit que Romantic AI se vantait « d’être là pour maintenir votre SANTÉ MENTALE ? » Eh bien, ce n’est que ce qu’ils disent dans leur langage marketing. Le language dans leurs Conditions & générales s’assure de rappeler aux utilisateurs que « Romantic AI n’est pas un fournisseur de soins de santé ou de services médicaux, qu’il ne fournit pas de soins médicaux, de service de santé mentale ou tout autre service professionnel. Seul votre médecin, thérapeute ou tout autre spécialiste peut le faire. Romantic AI NE DÉCLARE PAS, NE REPRÉSENTE PAS NI NE GARANTIT QUE LE SERVICE FOURNIT UNE AIDE THÉRAPEUTIQUE, MÉDICALE OU AUTRE AIDE PROFESSIONNELLE. » Alors oui, il est probablement bon de garder ça en tête.
Nous l’avons dit, nous avons des questions. Et ce n’est pas tout. Nous avons relevé une bizarrerie qui nous a également fait hausser les sourcils. Dans le cadre de nos recherches, nous avons voulu savoir combien de traqueurs l’application envoie lorsque vous l’utilisez. Les traqueurs sont de petits bouts de code qui recueillent des informations sur votre appareil, sur votre utilisation de l’application ou même sur vos données personnelles, et les communiquent à des tiers, souvent à des fins publicitaires. Nous avons découvert que Romantic AI avait envoyé 24 354 traqueurs publicitaires en l’espace d’une minute d’utilisation. Cela fait BEAUCOUP de traqueurs (à titre de référence, la plupart des applications que nous avons examinées en ont envoyé quelques centaines). Tous ces traqueurs ne sont pas nécessairement mauvais. Certains peuvent être utilisés pour des raisons légitimes, comme les services d’abonnement. Cependant, nous avons remarqué qu’au moins un traqueur semblait envoyer des données en Russie, où les lois sur la protection de la vie privée ne sont pas nécessairement aussi strictes qu’ailleurs.
Dans l’ensemble, Romantic AI est un chatbot IA intéressant à étudier. À certains égards, il ne semble pas trop dangereux. La politique de confidentialité de Romantic AI stipule que la société ne vendra pas et ne louera pas vos données et que chacun, indépendamment des lois sur la protection de la vie privée en vigueur dans son pays, peut supprimer ses données ; la société propose même une page pour aider les utilisateurs à le faire. Tout cela est excellent. Pourtant, nous avons relevé des éléments bizarres et des points d’interrogation qui nous mettent mal à l’aise. De plus, nous ne pouvons pas dire si l’application répond à nos normes de sécurité minimales et nous n’avons pas de réelle visibilité sur le fonctionnement de leurs IA, sur lesquelles les utilisateurs ne semblent pas avoir beaucoup de contrôle non plus. Tout cela nous inquiète sérieusement.
Alors, que pourrait-il arriver de pire avec Romantic AI ? On ne va pas se mentir, une application qui se présente comme une application qui est « là pour maintenir votre SANTÉ MENTALE » tout en se présentant comme un endroit où l’on peut être un « petit ami brutal » nous laisse un sentiment… de malaise. Si l’on ajoute à cela la probabilité que les utilisateurs développent des sentiments amoureux à l’égard de leurs petites amies générées par l’IA, alors qu’ils ne savent pas ou n’ont aucune idée de la manière dont fonctionne l’intelligence artificielle qui constitue la base de ces chatbots, on peut s’inquiéter des risques d’abus. Comment savoir si Romantic AI (ou tout autre chatbot d’IA similaire) ne pourrait pas attirer les utilisateurs en leur promettant des petites amies qui ne portent pas de jugement, qui sont toujours prêtes à écouter et qui sont prêtes à tout, puis changer l’IA pour la conduire sur la voie sombre de la manipulation. Il s’agit d’une préoccupation réelle dans notre monde de chatbot d’IA en pleine croissance, en particulier lorsqu’il y a si peu de visibilité et de contrôle sur le fonctionnement de ces chatbots d’IA. Et lorsqu’une entreprise nous interroge autant que le fait Romantic AI, nous nous inquiétons non seulement pour votre vie privée, mais aussi pour votre sécurité et votre sûreté.
Conseils pour vous protéger
- Ne divulguez pas d’informations sensibles lors de vos conversations avec votre partenaire généré par l’IA.
- Exigez la suppression de vos données lorsque vous cessez d’utiliser l’application. La simple suppression d’une application de votre appareil ne permet généralement pas d’effacer vos données personnelles ni de clôturer votre compte.
- Ne consentez pas au suivi continu de votre géolocalisation par l’application. Il est préférable de fournir la géolocalisation « uniquement pendant l’utilisation de l’application ».
- Ne partagez pas de données sensibles via l’application.
- N’autorisez pas l’accès à vos photos et vidéos ou à votre appareil photo.
- Ne vous connectez pas par le biais de comptes tiers.
- Ne vous connectez pas à un service tiers via l’application, ou assurez-vous au minimum que ce dernier adopte des pratiques décentes en matière de protection de la vie privée.
- Ne divulguez pas d’informations sensibles lors de vos conversations avec votre partenaire généré par l’IA.
- Choisissez un mot de passe compliqué ! Vous pouvez utiliser un gestionnaire de mots de passe comme 1Password, KeePass, etc.
- N’utilisez pas de plug-ins de médias sociaux.
- Utilisez les paramètres de confidentialité de votre appareil pour limiter l’accès à vos informations personnelles via l’application (n’autorisez pas l’accès à votre caméra, votre micro, vos images et votre localisation, sauf si nécessaire).
- Mettez votre application à jour régulièrement.
- Limitez le suivi publicitaire via votre appareil (par ex., sur iPhone, accédez à Confidentialité -> Publicité -> Limiter le suivi publicitaire) et les plus grands réseaux publicitaires (pour Google, accédez à votre compte Google et désactivez la personnalisation des annonces)
- Lorsque vous vous inscrivez, n’acceptez pas le suivi de vos données, dans la mesure du possible.
Ce produit peut-il m’espionner ?
Caméra
Appareil : Ne s’applique pas
Application : Oui
Microphone
Appareil : Ne s’applique pas
Application : Non
Piste la géolocalisation
Appareil : Ne s’applique pas
Application : Non
Que peut-on utiliser pour s’inscrire ?
Adresse e-mail
Ne s’applique pas
Téléphone
Ne s’applique pas
Compte tiers
Ne s’applique pas
Aucune inscription n’est requise dans l’application.
Quelles données l’entreprise collecte-t-elle ?
Personnelles
Nom, sexe, centres d’intérêt, loisirs, occupation, adresse e-mail, données d’utilisation, informations sur les utilisateurs, personnes mentionnées dans les conversations, messages, images, messages vocaux ; identifiants, attributs de l’appareil, données relatives aux paramètres de l’appareil, du réseau et de la connexion, cookies.
Corporelles
Images, messages vocaux
Sociales
Comment l’entreprise utilise-t-elle les données ?
Comment pouvez-vous contrôler vos données ?
Quel est l’historique de l’entreprise en matière de protection des données des utilisateurs et utilisatrices ?
Aucune fuite de données connue n’a été découverte au cours des trois dernières années.
Informations liées à la vie privée des enfants
Ce produit peut-il être utilisé hors connexion ?
Informations relatives à la vie privée accessibles et compréhensibles ?
La politique de confidentialité de Romantic AI est confuse et mal rédigée.
Liens vers les informations concernant la vie privée
Ce produit respecte-t-il nos critères élémentaires de sécurité ?
Chiffrement
Mot de passe robuste
Mises à jour de sécurité
Gestion des vulnérabilités
Politique de confidentialité
Il est impossible de confirmer si l’IA employée par ce produit est digne de confiance, car il n’existe que peu ou pas d’informations publiques sur son fonctionnement et sur les mécanismes de contrôle mis à disposition des utilisateurs pour assurer la sécurité du produit. En même temps, le potentiel de préjudice des applications est élevé car elles collectent de nombreuses données sensibles et utilisent les données collectées pour entraîner les algorithmes d’IA.
Romantic AI utilise de grands modèles de langage pour générer des conversations et se comporter comme un partenaire amoureux.
Cette IA est-elle non digne de confiance ?
Quel genre de décisions l’IA prend-elle à votre sujet ou pour vous ?
L’entreprise est-elle transparente sur le fonctionnement de l’IA ?
Les fonctionnalités de l’IA peuvent-elles être contrôlées par l’utilisateur ou l’utilisatrice ?
Pour aller plus loin
-
5 Things You Must Not Share With AI ChatbotsMake Use Of
-
AI girlfriends are ruining an entire generation of menThe Hill
-
AI-Human Romances Are Flourishing—And This Is Just the BeginningTime
-
‘Cyber-Heartbreak’ and Privacy Risks: The Perils of Dating an AIRolling Stone
-
Can an AI Save a Life?The Atlantic
Commentaires
Vous avez un commentaire ? Dites-nous tout.