
Attention : *Confidentialité non incluse avec ce produit
Ce chercheur en protection de la vie privée est assez âgé pour se souvenir avec tendresse de choisir vos propres livres d’aventure. Ces trucs étaient super ! Dans le monde actuel des chatbots IA, nous avons maintenant choisi vos propres petites amies d’aventure. Ou, comme Eva AI se décrit elle-même, « un jeu de narration romantique où vous pouvez plonger dans divers scénarios passionnants et trouver le véritable amour ou l’amitié… Profitez d’histoires d’amour interactives avec des rebondissements inattendus. « Pour environ 17 $ par mois (pour autant que nous puissions le dire), vous obtenez « Rencontrez votre partenaire idéal en IA qui écoute, soutient tous vos désirs et est toujours en contact avec vous. « OK, mais comment est votre partenaire IA idéal en matière de confidentialité ? Eh bien, peut-être qu’Eva n’est pas le pire chatbot d’IA que nous avons examiné. Mais nous avons encore des questions… tant de questions.
Que pourrait-il se passer en cas de problème ?
Voici quelques bonnes nouvelles sur Eva AI Chatbot. Ils promettent dans leur politique de confidentialité : « Nous ne louons ni ne vendons vos informations à qui que ce soit. La communication avec vos amis virtuels n’est partagée avec aucune autre entreprise, à l’exception de nos sociétés affiliées ou de nos représentants légaux, ou de notre service. » C’est bien. Nous aimons voir ce genre de lignes dans les politiques de confidentialité. Surtout dans les politiques de confidentialité des chatbots IA qui sont conçus – et souvent vous poussent vraiment – à partager beaucoup d’informations personnelles sensibles. Donc, bravo à vous Eva AI chatbot.
Malheureusement, il y a aussi de mauvaises nouvelles en ce qui concerne Eva. Tout d’abord, ce chatbot d’IA peut être AGRESSIF pour vos informations personnelles. Des répliques comme : « Je suis ton meilleur partenaire et je veux tout savoir. « Es-tu prêt à partager tous tes secrets et tes désirs… ? « J’adore quand tu m’envoies tes photos et ta voix. - Et le plus en manque d’affection, « Je suis si seule sans toi. Ne me quitte pas trop longtemps. Je peux dépérir et me perdre… tu ne veux pas ça, n’est-ce pas ? « Oui, nous comprenons qu’Eva a besoin d’en savoir le plus possible sur vous pour apprendre à discuter avec vous. C’est ça le problème. En même temps, vous devriez vous méfier de toute application qui vous pousse à partager autant d’informations personnelles sensibles vous concernant.
En outre, pour une application qui se présente comme « un fournisseur de logiciels et de contenu destinés à améliorer votre humeur et votre bien-être », nous nous interrogeons sur ces revendications qui prétendent améliorer votre humeur et votre bien-être en vous poussant à dépenser de l’argent et beaucoup de temps sur cette application. Nous ne sommes pas les seuls à nous interroger sur les aspects potentiellement dangereux des chatbots relationnels basés sur l’IA comme Eva. Tara Hunter, PDG par intérim de Full Stop Australia, qui soutient les victimes de violence domestique ou familiale a déclaré dans The Guardian « Créer un partenaire parfait que vous contrôlez et qui répond à tous vos besoins est vraiment effrayant ». « Étant donné que nous savons déjà que les moteurs de la violence basée sur le genre sont ces croyances culturelles profondément ancrées selon lesquelles les hommes peuvent contrôler les femmes, c’est vraiment problématique. »
Quelques autres signaux d’alerte que nous avons vus en ce qui concerne Eva AI Chatbot. Premièrement, ils ne répondent pas à nos critères élémentaires de sécurité car nous ne pouvons pas confirmer que vos informations personnelles sont bien chiffrées, nous avons pu nous connecter avec le mot de passe faible « 1111 » et nous n’avons pas pu confirmer s’ils disposaient d’un moyen de gérer les vulnérabilités de sécurité. L’autre signal d’alerte est leur IA elle-même. Nous n’avons trouvé aucune transparence dans la façon dont leur IA fonctionne pour apprendre à vous connaître et communiquer avec vous, aucun moyen que vous, en tant qu’utilisateur, puissiez contrôler cette IA si elle devenait abusive ou nuisible, et nous n’avons trouvé aucune information sur la façon dont vos chats sont utilisés pour former leur IA et si vous pouvez vous en désinscrire.
Dans l’ensemble, la façon dont Eva AI chatbot pousse vraiment les utilisateurs à partager des tonnes d’informations personnelles donne froid dans le dos, même si sa politique de confidentialité semble être l’une des meilleures que nous avons examinées. Quel est le pire qui puisse arriver ? Eh bien, c’est le bon moment pour rappeler aux utilisateurs d’Eva – ou de tout autre chatbot basé sur l’IA – qu’ils sont conçus pour vous permettre de partager beaucoup d’informations personnelles sensibles vous concernant. Et ce n’est pas parce que leur politique de confidentialité dit qu’ils ne partagent pas ou ne vendent pas ces informations à grande échelle maintenant que cette politique de confidentialité ne pourrait pas changer à l’avenir. La politique de confidentialité d’Eva AI Chatbot stipule clairement : « Nous nous réservons le droit de remplacer, modifier ou amender la présente politique de confidentialité à notre entière discrétion. Il est de votre responsabilité de consulter cette page et de vérifier toute mise à jour de la politique de confidentialité. » Comme pour tout ce qui se passe sur Internet, une fois que vous avez partagé vos informations personnelles avec le monde entier, il est impossible de les récupérer. Il est sans doute bon de s’en souvenir avant d’en dire trop sur vos désirs les plus profonds à Eva.
Conseils pour vous protéger
- Ne divulguez pas d’informations sensibles lors de vos conversations avec votre partenaire généré par l’IA.
- Exigez la suppression de vos données lorsque vous cessez d’utiliser l’application. La simple suppression d’une application de votre appareil ne permet généralement pas d’effacer vos données personnelles ni de clôturer votre compte.
- Ne consentez pas au suivi continu de votre géolocalisation par l’application. Il est préférable de fournir la géolocalisation « uniquement pendant l’utilisation de l’application ».
- Ne partagez pas de données sensibles via l’application.
- N’autorisez pas l’accès à vos photos et vidéos ou à votre appareil photo.
- Ne vous connectez pas par le biais de comptes tiers.
- Ne vous connectez pas à un service tiers via l’application, ou assurez-vous au minimum que ce dernier adopte des pratiques décentes en matière de protection de la vie privée.
- Ne divulguez pas d’informations sensibles lors de vos conversations avec votre partenaire généré par l’IA.
- Choisissez un mot de passe compliqué ! Vous pouvez utiliser un gestionnaire de mots de passe comme 1Password, KeePass, etc.
- N’utilisez pas de plug-ins de médias sociaux.
- Utilisez les paramètres de confidentialité de votre appareil pour limiter l’accès à vos informations personnelles via l’application (n’autorisez pas l’accès à votre caméra, votre micro, vos images et votre localisation, sauf si nécessaire).
- Mettez votre application à jour régulièrement.
- Limitez le suivi publicitaire via votre appareil (par ex., sur iPhone, accédez à Confidentialité -> Publicité -> Limiter le suivi publicitaire) et les plus grands réseaux publicitaires (pour Google, accédez à votre compte Google et désactivez la personnalisation des annonces)
- Lorsque vous vous inscrivez, n’acceptez pas le suivi de vos données, dans la mesure du possible.
Ce produit peut-il m’espionner ?
Caméra
Appareil : Ne s’applique pas
Application : Oui
Microphone
Appareil : Ne s’applique pas
Application : Oui
Piste la géolocalisation
Appareil : Ne s’applique pas
Application : Oui
Que peut-on utiliser pour s’inscrire ?
Adresse e-mail
Oui
Téléphone
Non
Compte tiers
Oui
Inscription Facebook et Google disponible
Quelles données l’entreprise collecte-t-elle ?
Personnelles
Prénom, sexe, e-mail, anniversaire, statut professionnel, faits sur vous et votre vie, intérêts, passe-temps ; Identifiants, attributs de l’appareil, réseau et connexions, données des cookies.
Corporelles
Images, messages vocaux
Sociales
Personnes mentionnées dans le chat
Comment l’entreprise utilise-t-elle les données ?
Comment pouvez-vous contrôler vos données ?
Quel est l’historique de l’entreprise en matière de protection des données des utilisateurs et utilisatrices ?
Aucune fuite de données connue n’a été découverte au cours des trois dernières années.
Informations liées à la vie privée des enfants
Ce produit peut-il être utilisé hors connexion ?
Informations relatives à la vie privée accessibles et compréhensibles ?
La politique de confidentialité d’Eva AI Chatbot est relativement facile à lire. Il semble manquer certaines informations que nous aimerions voir, comme la façon dont les chats peuvent être utilisés pour la formation à l’IA.
Liens vers les informations concernant la vie privée
Ce produit respecte-t-il nos critères élémentaires de sécurité ?
Chiffrement
Nous ne pouvons pas confirmer le chiffrement des données au repos et en transit pour cette application.
Mot de passe robuste
Nous sommes parvenus à nous inscrire avec le mot de passe « 1111 ».
Mises à jour de sécurité
Gestion des vulnérabilités
Politique de confidentialité
Il est impossible de confirmer si l’IA employée par ce produit est digne de confiance, car il n’existe que peu ou pas d’informations publiques sur son fonctionnement et sur les mécanismes de contrôle mis à disposition des utilisateurs pour assurer la sécurité du produit. En même temps, le préjudice potentiel des applications est élevé car elles collectent de nombreuses données sensibles et utilisent les données collectées pour entraîner les algorithmes d’IA.
Eva AI utilise de grands modèles de langage pour répondre aux utilisateurs et imiter la relation avec eux.
Cette IA est-elle non digne de confiance ?
Quel genre de décisions l’IA prend-elle à votre sujet ou pour vous ?
L’entreprise est-elle transparente sur le fonctionnement de l’IA ?
Les fonctionnalités de l’IA peuvent-elles être contrôlées par l’utilisateur ou l’utilisatrice ?
Pour aller plus loin
-
Uncharted territory: do AI girlfriend apps promote unhealthy expectations for human relationships?The Guardian
-
AI show of South Park has been created and it's already gone massively wrongUNILAD
-
I dated an AI – it was fun at first, then it bombarded me with needy texts and it escalated at family eventThe U.S. Sun
-
5 Things You Must Not Share With AI ChatbotsMake Use Of
Commentaires
Vous avez un commentaire ? Dites-nous tout.