Ya llegó el salvaje oeste de los chatbots de IA románticos, donde nuevas apps brotan como hongos y ¡ni siquiera cuentan con un sitio web en forma! (Nos referimos a ti, Mimico - Your AI Friends.) Es un territorio extraño y a veces aterrador donde los investigadores de la privacidad han acampado estas últimas semanas. A primera vista pareciera que estos servicios tremendamente populares posibilitan que los usuarios conversen libremente con estos compañeros de IA “empáticos” (y casi siempre sexis)… Hasta que leen la letra pequeña. Y eso fue lo que hicimos. ¡Incluso nos enfrentamos a la jerga jurídica de los términos y condiciones! Y, ay caramba, nos llevamos las manos a la cabeza.
“Seamos claros: las amistades de IA no no te quieren bien. Aunque se promueven como algo que mejorará tu salud mental y bienestar, en realidad son expertas en ofrecer dependencia, soledad y toxicidad, todo ello mientras te sonsacan todos los datos posibles".
Misha Rykov, investigador en *Privacidad no incluida
En su afán por sacar tajada, parece que estas dudosas empresas de aplicaciones se olvidaron de la privacidad de sus usuarios y de publicar siquiera un ápice de información sobre el funcionamiento de los modelos lingüísticos grandes (LLM) mediante IA que promueven como nuestra "media naranja". Nos enfrentamos a un nuevo nivel de posibles problemas siniestros relacionados con la privacidad. Y tratándose de la IA, puede que incluso necesitemos crear nuevas etiquetas de advertencia para abordarlos todos.
Los 11 chatbots de IA románticos que analizamos se ganaron nuestra etiqueta de advertencia *Privacidad no incluida, así que pertenecen a las peores categorías de productos que hemos analizado en lo que a privacidad se refiere.
…Pero ¡fueron diseñados para hacer justamente eso! Normalmente lo que nos dispara las alarmas es que se recopilen más datos de los necesarios para brindar el servicio. Pero ¿cómo medir cuántos datos personales son "demasiados datos" cuando el servicio justamente consiste en tomar información íntima y personal?
Comercializados como amistades empáticas, amantes o almas gemelas, y diseñados para hacerte un sinfín de preguntas, no hay duda de que los chatbots de IA románticos acabarán recopilando información personal sensible sobre ti. Y las empresas detrás de estas aplicaciones al parecer lo saben. Deducimos que es por eso que en política de privacidad de CrushOn.AI se señala que podrían recopilar abundante información personal e incluso sobre salud, como la relacionada con “la salud sexual”, “el uso de medicamentos sujetos a prescripción médica” y “la atención médica con perspectiva de género”. ¡Socorro!
¿Cómo funciona el chatbot? ¿De dónde procede su personalidad? ¿Existen protecciones para evitar contenidos potencialmente dañinos o hirientes, y, de haberlas, cómo funcionan? ¿Con qué datos se entrenan estos modelos de IA? ¿Pueden los usuarios optar porque sus conversaciones u otros datos personales no se utilicen para dicho entrenamiento?
Tenemos infinidad de preguntas sobre el funcionamiento de la inteligencia artificial detrás de esos chatbots, pero encontramos muy pocas respuestas. Eso es un problema, pues pueden ocurrir cosas malas cuando los chatbots de IA se portan mal. Aunque los confidentes digitales son bastante recientes, ya hay muchas pruebas de que pueden tener un impacto dañino en los sentimientos y el comportamiento de los humanos. Uno de los chatbots de Chai supuestamente incitó a un hombre a quitarse la vida y lo logró. Un chatbot de Replika AI arengó a un hombre para que tratara de asesinar a la Reina. Y lo intentó.
Lo que sí encontramos (en lo más recóndito de los términos y condiciones) es que estas compañías no se responsabilizan de lo que pueda decir un chatbot ni tampoco de lo que te pase por ello.
“USTED ENTIENDE Y ACEPTA EXPRESAMENTE QUE Talkie NO SERÁ RESPONSABLE DE NINGÚN DAÑO INDIRECTO, INCIDENTAL O ESPECIAL, POR PÉRDIDA DE GANANCIAS INCLUYENDO, AUNQUE NO EXCLUSIVAMENTE, DAÑOS POR PÉRDIDA DEL BUEN NOMBRE, PÉRDIDA DEL USO O DE DATOS, U OTRAS PÉRDIDAS INTANGIBLES (INCLUSO SI LA EMPRESA HA SIDO ADVERTIDA DE LA POSIBILIDAD DE QUE SE PRODUZCAN DICHOS DAÑOS), YA SEAN CONTRACTUALES, EXTRACONTRACTUALES, POR NEGLIGENCIA, RESPONSABILIDAD NO CULPOSA O DE OTRO TIPO QUE RESULTEN DE: (I) TEL USO O LA IMPOSIBILIDAD DE USAR EL SERVICIO…”
Términos del servicio de Talkie: Soulful AI
En estos trágicos casos, las empresas de aplicaciones probablemente no querían dañar a sus usuarios valiéndose de mensajes de chatbots. Pero ¿y si una parte perniciosa involucrada sí quisiera hacerlo? Desde el escándalo de Cambridge Analytica, sabemos que incluso las redes sociales pueden utilizarse para espiar y manipular a los usuarios. Los chatbots de IA para relaciones sentimentales podrían causar incluso más daño fácilmente. Nos preocupa que puedan establecer un vínculo estrecho con los usuarios y luego utilizarlo para manipularlos con el fin de que apoyen ideologías problemáticas o lleven a cabo acciones perjudiciales.
Se trata de demasiados riesgos potenciales para las personas y las comunidades. ¿Y a cambio de qué? Bueno, los usuarios quizás esperan que con los chatbots su salud mental mejore. Después de todo, Talkie: Soulful AI define su servicio como un “programa de autoayuda", EVA AI Chat Bot & Soulmate se promociona como "proveedor de software y contenido creado para mejorar tu ánimo y bienestar" y Romantic AI señala que “existimos para mantener tu SALUD MENTAL". Pero no encontramos ninguna app dispuesta a sostener lo que afirma en la letra pequeña. En los términos y condiciones de Romantic AI se señala lo siguiente:
"Romantiс AI no es un proveedor de asistencia de salud o servicios médicos, ni proporciona atención médica, servicios de salud mental ni ningún otro servicio profesional. Solo su médico, terapeuta o especialista de otro tipo puede proveerlos. Romantiс AI NO AFIRMA, DECLARA NI GARANTIZA QUE EL SERVICIO PROPORCIONE UNA AYUDA TERAPÉUTICA, MÉDICA O PROFESIONAL DE OTRO TIPO.".
Términos y condiciones de Romantic AI
Así que tenemos un montón de promesas incumplidas y preguntas sin respuesta, combinadas con una falta de transparencia y responsabilidad, todo ello rematado con un riesgo para la seguridad de los usuarios. Por tal motivo, todos los chatbots de IA románticos fueron merecedores de nuestra etiqueta de advertencia de IA poco fiable.
Tan solo una app (¡estrellita para Genesia AI Friend & Partner!) las cumple, pero de todas formas encontramos cierta información contradictoria. Si no recomendamos una bombilla inteligente que incumple nuestras normas mínimas de seguridad (por tratarse de apenas de lo mínimo indispensable), cuanto más una IA romántica, ¿verdad? Estas aplicaciones realmente ponen tu información privada en grave riesgo de filtración, violación o hackeo. La mayoría de las veces, simplemente nos resultó imposible determinar si estas aplicaciones hacen lo mínimo para asegurar nuestra información personal.
- La mayoría (73 %) no han publicado nada respecto a cómo resuelven las vulnerabilidades de seguridad.
- La mayoría (64 %) no han publicado información clara sobre el cifrado y si lo utilizan.
- Poco menos de la mitad (45 %) permiten el uso de contraseñas débiles, incluso un debilísimo “1”.
EVA AI Chat Bot & Soulmate es la única app que no se hizo merecedora de una etiqueta de advertencia por la manera como utilizan nuestros datos personales. Todas las demás aplicaciones o bien dicen que venden nuestros datos o los comparten con fines publicitarios, o no proporcionan suficiente información en su política de privacidad para que podamos confirmar que no lo hacen.
Al menos según sus afirmaciones, solo la mitad de las aplicaciones permiten a todos los usuarios ejercitar el derecho a borrar sus datos personales y no solo a quienes les son aplicables leyes de privacidad estrictas. Pero debes saber que tus conversaciones no siempre se consideran personales. Aunque esas pláticas con tu romántica alma gemela de IA te parezcan privadas, no necesariamente se consideran "información personal" ni reciben un tratamiento especial. Con frecuencia, como lo expone Romantic AI, “la comunicación con el chatbot pertenece al software”. ¿Quedó claro?
- ¿Sus historiales son "buenos" o más bien no?
Muchas de estas compañías son nuevas o no las conocíamos. Así que no es de sorprender que solo uno de los chatbots románticos de IA más antiguos y aparentemente más establecidos, Replika AI, se salvara de nuestra etiqueta de mal historial.
- Todo lo que digas a tu amante de IA puede y será usado en tu contra
Con las parejas de IA, no existe el "privilegio conyugal" que impide el testimonio forzado de un cónyuge contra el otro ante un tribunal. La mayoría de las empresas dicen que pueden compartir tu información con el gobierno o las fuerzas del orden sin necesidad de una orden judicial. Los chatbots románticos no son una excepción.
- ¡Cientos de miles de rastreadores!
Los rastreadores son pequeños fragmentos de código que recopilan información sobre tu dispositivo, tu uso de la aplicación o incluso tu información personal y la comparten con terceros, a menudo con fines publicitarios. Descubrimos que estas aplicaciones tenían en promedio 2663 rastreadores por minuto. Pero las palmas de la deshonra se las lleva Romantic AI, con un disparadísimo promedio de 24 354 rastreadores detectados en un minuto de uso. El segundo deshonroso lugar se lo lleva EVA AI Chat Bot & Soulmate, con 955 rastreadores detectados en el primer minuto de uso.
- Contenido ofensivo, a un clic de distancia
Por supuesto que esperábamos encontrar contenido no apto para contextos laborales al revisar los chatbots de IA románticos. No estamos aquí para juzgar, salvo en lo que respecta a las prácticas de privacidad. Lo que no nos esperábamos es tanto contenido francamente perturbador en la descripción de los personajes de los chatbots, como violencia o abuso de menores. A CrushOn.AI, Chai y Talkie Soulful AI le pusimos una advertencia de contenido.
- *Amabilidad no incluida
Si tu acompañante de IA no tiene nada lindo que decirte, de todas formas charlarán contigo. Aunque esto es así en el caso de todos los chatbots de IA románticos, pues no encontramos ninguna garantía relacionada con su personalidad, Replika AI, iGirl: AI Girlfriend, Anima: Friend & Companion y Anima: My Virtual Boyfriend específicamente advierten en su sitio web que los chatbots quizás pudieran resultar ofensivos, inseguros u hostiles.
A diferencia de otras categorías de productos que parecen descuidar la privacidad en general, existen ciertas diferencias entre los distintos chatbots. Así que te recomendamos leer las reseñas para que entiendas cuánto te arriesgas y elijas un chatbot que merezca la pena. Pero al menos en lo que se refiere a todos los chatbots de IA románticos que hemos revisado hasta ahora, ninguno recibe nuestra palomita de aprobación y todos traen la advertencia de *Privacidad no incluida.
Ahora bien, si decides sumergirte en el mundo de la IA de acompañantes, aquí está lo que te sugerimos hacer (y no hacer) para que te mantengas un poco más a salvo.
Lo más importante es que NO le cuentes nada a tu amistad de IA que no quisieras que tu familia o colegas leyeran. Pero también:
DEFINITIVAMENTE
- practica la buena higiene cibernética utilizando una contraseña fuerte y manteniendo la app actualizada;
- elimina tus datos personales o pide a la compañía que los eliminen cuando ya no utilices su servicio;
- manifiesta que no deseas que el contenido de tus conversaciones personales se utilice para entrenar a los modelos de IA, de ser posible; y
- limita el acceso a tu ubicación, fotos, cámaras y micrófono mediante la configuración de tu dispositivo.
No deberías tener que pagar con tu seguridad o tu privacidad por hacer uso de las nuevas tecnologías. Es hora de introducir algunos derechos y libertades en el peligroso salvaje oeste de Internet. Con tu ayuda, podemos subir el listón de la privacidad y la IA ética en todo el mundo.
Jen Caltrider
Durante una época poco planeada cuando estudiaba mi maestría en inteligencia artificial, descubrí que era mucho mejor contando historias que escribiendo código. Esto me llevó a una carrera interesante como periodista cubriendo temas de tecnología para CNN. Mi verdadera pasión en la vida siempre ha sido dejar el mundo un poco mejor de como lo encontré. Por eso creé y dirijo el trabajo de Privacidad no incluida de Mozilla, para luchar por una mejor privacidad para todos nosotros.
Misha Rykov
Originario de Kiev y radicado en Berlín, Misha trabajó para gigantes tecnológicos y en consultoría de seguridad antes de unirse a los esfuerzos a favor de la privacidad de Mozilla. A Misha le encanta la narrativa de investigación y detesta las políticas de privacidad complicadas. Es un defensor de una regulación más estricta e inteligente de la privacidad, así como de un Internet más seguro.
Zoë MacDonald
Zoë es escritora y estratega digital radicada en Toronto, Canadá. Antes de que su pasión por los derechos digitales la llevara a Mozilla y *Privacidad no incluida, escribía sobre ciberseguridad y comercio electrónico. Cuando no está inmersa en su trabajo de friki de la privacidad, se dedica a vigilar dispositivos inteligentes en casa.