
ChatGPT puede retener más información sobre ti que nunca antes, ¿deberías preocuparte?
La memoria de la inteligencia artificial está avanzando. ¿Más útil? Sin duda. ¿Más intrusiva? Definitivamente.
Desde 2024, ChatGPT ha implementado una función de memoria que permite a los usuarios almacenar contextos útiles sobre sus preferencias, estilo de escritura, metas e intereses. Los usuarios podían acceder a la configuración para revisar, actualizar o eliminar estas memorias, y también podían recibir notas importantes del sistema. Sin embargo, OpenAI ha anunciado una actualización significativa que transforma esta función. Ahora, ChatGPT podrá utilizar no solo los datos que los usuarios le proporcionan, sino también extraer información de todas las conversaciones pasadas para enriquecer sus respuestas futuras.
Esta nueva funcionalidad, conocida como memoria a largo plazo o memoria persistente, está siendo desplegada gradualmente para usuarios de ChatGPT Plus y Pro, aunque actualmente no está disponible en varios países europeos debido a regulaciones regionales. La idea es clara: cuanto más recuerde ChatGPT, más útil se convierte. Este avance representa un gran paso hacia la personalización, aunque también invita a reflexionar sobre lo que podríamos estar sacrificando a cambio.
La personalización promete una experiencia más ajustada a las necesidades del usuario, lo que significa menos explicaciones y respuestas más pertinentes. Rohan Sarin, gerente de producto en Speechmatics, argumenta que conocer mejor a un usuario ahorra el tiempo de tener que explicar continuamente detalles importantes. Por ejemplo, al pedir recomendaciones de restaurantes, ChatGPT podría sugerir opciones que se alineen con los objetivos de salud del usuario, mostrando una comprensión más allá de la simple ejecución de instrucciones.
Sin embargo, este tipo de personalización también plantea riesgos, como la posibilidad de una dependencia emocional. Sarin menciona que la retención de información puede aumentar la fidelidad del usuario hacia la plataforma, ya que cada interacción incrementa el costo de cambiar a otro servicio. El CEO de OpenAI, Sam Altman, ha señalado que las capacidades de memoria permitirán que los sistemas de IA desarrollen un entendimiento más profundo sobre los usuarios a lo largo del tiempo.
Un desafío fundamental de esta memoria a largo plazo en inteligencia artificial es su capacidad limitada para comprender el contexto de la misma manera que lo haría un ser humano. Los humanos separan intuitivamente lo privado de lo profesional, lo significativo de lo efímero, y ChatGPT podría tener dificultades para manejar estas diferencias. Sarin advierte que, al utilizar ChatGPT para diversas funciones, los límites entre esos contextos pueden desdibujarse, lo que podría resultar en referencias o recuerdos que no son apropiados en un momento dado.
La implementación de esta memoria persistente también promete ser beneficiosa en entornos laborales, mejorando la continuidad en proyectos y reduciendo la necesidad de repetir instrucciones. Julian Wiffen, director de IA y ciencia de datos en Matillion, ve aplicaciones interesantes, pero también plantea preocupaciones sobre la privacidad y el control de los datos. Wiffen destaca que las informaciones sensibles no deberían conservarse de un proyecto a otro, ya que podría dar lugar a problemas de propiedad intelectual o cumplir con regulaciones.
OpenAI asegura que los usuarios mantendrán la capacidad de gestionar sus memorias, pudiendo eliminar aquellas que ya no sean relevantes o desactivar la función de memoria por completo. No obstante, especialistas como Wiffen sostienen que es imprescindible tener un mayor control y transparencia sobre lo que se recuerda, la duración de la retención de datos y la capacidad de olvidar.
En comparación, otras herramientas de IA abordan la memoria de diferentes maneras. Por ejemplo, el asistente Claude no almacena memoria persistente fuera de la conversación actual, lo que permite más control y privacidad. Por otro lado, Perplexity se centra en la obtención de información en tiempo real y Replika opta por almacenar contextos emocionales a largo plazo para mejorar la relación con los usuarios.
La cuestión no es si la memoria es útil, sino si estamos dispuestos a que la inteligencia artificial se vuelva tan efectiva en cumplir esos roles. Es fácil decir que sí, dado que estas herramientas están diseñadas para ser útiles y eficientes. Pero esta utilidad no es neutral y está intencionadamente diseñada por compañías que se benefician al mantener nuestra dependencia. La entrega total de datos a un sistema que pueda recordar cada detalle de nuestra vida podría no ser tan sencilla como parece.