Cover Image for ¿Está realmente molesta conmigo? Quizás ChatGPT tenga la respuesta.

¿Está realmente molesta conmigo? Quizás ChatGPT tenga la respuesta.

Las personas están recurriendo a la inteligencia artificial generativa para resolver sus conflictos interpersonales, aunque algunos afirman que esto está aumentando su ansiedad.

Green estaba atravesando una ruptura. Las causas del final de la relación eran relativamente comunes: dos personas que no podían satisfacer las necesidades del otro y tenían dificultades para comunicarse decidieron que lo mejor era separarse. Por ello, cuando la expareja de Green se comunicó sin previo aviso, quedó sorprendido.

El correo electrónico en sí no tenía nada de extraordinario. Green, un neoyorquino de 29 años, lo describe como una típica carta de ruptura, donde se expresaron quejas sobre maneras en que las expectativas no se cumplieron. Sin embargo, ambos habían acordado no contactarse. Green no apreció el tono del correo y se lo hizo saber a su expareja.

La respuesta que recibió fue que su expareja había intentado que el mensaje no fuera ofensivo ni doloroso, incluso lo había revisado con ChatGPT varias veces para asegurarse de que no lastimara a nadie. “ChatGPT no tiene la historia que compartimos, así que no entiendo cómo podría aplicar el contexto de nuestra relación”, dice Green. Al principio se sintió divertido, pero luego molesto. “Me desconcertó que una relación tan personal se redujera a la opinión de ChatGPT en vez de a mis propios límites, opiniones o necesidades”, añade, sintiendo que resultaba impersonal.

La inteligencia artificial generativa ha permeado rápidamente todos los aspectos de la vida moderna. Ha influido en diversos sectores laborales, canibalizando arte original y robando ideas de creadores para producir su propio contenido. Los estudiantes la utilizan para hacer trampa, mientras que los profesores la emplean para planificar lecciones. Está transformando a usuarios vulnerables, e incluso podría participar en la aprobación de nuevos medicamentos. Su impacto en el medio ambiente también es significativo.

Parece inevitable que la inteligencia artificial se haya convertido en una herramienta para abordar lo más humano: el deseo de comprenderse mutuamente. Las personas recurren a ChatGPT para analizar mensajes de parejas, resolver disputas con amigos o buscar una reconciliación familiar, a menudo en soledad. A pesar de su deseo genuino de mejorar la comunicación, los usuarios de ChatGPT mencionan sentir vergüenza por usar una computadora para resolver problemas profundamente humanos.

Daniel Kimmel, psiquiatra clínico en la Universidad de Columbia, advierte sobre el riesgo de delegar el esfuerzo emocional a la IA. “Nuestras amistades dependen de esos lazos”, señala. La humanidad ha pasado cientos de miles de años desarrollando un “simulador emocional” que nos ayuda a entendernos, algo que la IA no posee. “Lo que puede ofrecer es un motor predictivo poderoso que interpreta patrones y lenguaje”, explica Kimmel. Sin embargo, destaca que la IA opera solo con palabras, mientras que nuestras relaciones están basadas en experiencias más profundas y significativas.

Kate, una mujer de 35 años en Denver, ha estado utilizando ChatGPT para analizar sus relaciones durante aproximadamente dos meses y medio, comenzando por su trabajo donde el equipo lo implementa en sus proyectos. La transición a su uso personal no fue difícil, ya que antes ya buscaba respuestas en hilos de Reddit o en Google sobre relaciones. Reconoce que traumas de relaciones pasadas influyen en su comportamiento.

Recientemente, tras un cambio en su vida amorosa, Kate se sintió ansiosa y usó ChatGPT para analizar sus chats con su nueva pareja. “Pedí que analizara nuestras conversaciones y me diera un puntaje”, explica, detallando aspectos como sus estilos de apego. Las respuestas que recibió la impactaron y decidió compartirlas con sus amigas. La claridad que obtuvo de ChatGPT le resultó reconfortante en momentos de duda.

Aunque muchas personas encuentran en ChatGPT un apoyo sin necesidades propias, su terapeuta real no apoya esta práctica y le aconseja cultivar su capacidad de lidiar con el dolor emocional. Un portavoz de OpenAI afirmó que ChatGPT es una herramienta general diseñada para ser neutral y no reemplaza a los profesionales de la salud mental.

Andrew, un hombre de 36 años en Seattle, ha empezado a buscar respuestas en ChatGPT tras una difícil etapa familiar. Aunque no es un secreto oculto, no se muestra del todo abierto sobre su uso. “No he tenido mucho éxito encontrando a un terapeuta con quien conecte”, comenta. Tras una ruptura por mensaje de texto, probó ChatGPT para entender la ambigüedad del mensaje recibido, y aunque no obtuvo claridad, le resultó validante.

Las preocupaciones sobre la privacidad surgen cuando los usuarios confían información íntima a ChatGPT. A pesar de que los usuarios expresan su confianza en el servicio, la posibilidad de que sus datos sean utilizados de forma poco ética es un riesgo palpable. Mientras algunos consideran a ChatGPT como un diario seguro, expertos advierten sobre las implicaciones de compartir información sensible con tecnología. A medida que la popularidad del uso de la IA para resolver problemas personales crece, las barreras para su adopción parecen desvanecerse.