Wednesday, December 24th, 2025

OpenAI estrena el resumen del año para ChatGPT: entre el análisis de datos y el debate sobre la salud mental

La tecnológica OpenAI ha lanzado este lunes su nueva función retrospectiva en la aplicación de ChatGPT, una propuesta que permite a los usuarios echar la vista atrás y analizar cómo ha sido su interacción con la inteligencia artificial a lo largo de 2025. Siguiendo la estela de otras plataformas digitales, este resumen anual no solo desglosa los temas principales de las conversaciones, sino que cuantifica la actividad mediante estadísticas curiosas y otorga reconocimientos personalizados según el perfil de cada cuenta.

Esta funcionalidad está disponible actualmente para usuarios de las versiones gratuita, Plus y Pro en Estados Unidos, Reino Unido, Canadá, Nueva Zelanda y Australia. Para acceder a ella, basta con pulsar el botón de suma dentro de la aplicación y solicitar directamente el balance del año. No obstante, los perfiles de empresa y cuentas corporativas han quedado fuera de esta iniciativa, por lo que muchos trabajadores se quedarán sin la posibilidad de compartir sus métricas con sus superiores.

La radiografía de nuestras conversaciones en 2025

El repaso comienza de una forma casi lírica, con un poema generado que da paso a los tres temas más recurrentes en el historial del usuario. A partir de ahí, entran en juego los datos puros: el volumen total de mensajes enviados, el número de chats iniciados y cuál fue el día de mayor actividad. Una de las métricas más llamativas es el recuento de los guiones largos (em-dashes) intercambiados, un signo de puntuación que el modelo utiliza con frecuencia y que se ha convertido en una seña de identidad de su estilo de redacción.

Además de las cifras, OpenAI ha querido profundizar en el análisis del tono. La herramienta evalúa si el usuario se comunica de forma directa, irónica o casual, asignando un “arquetipo” específico. Por ejemplo, el perfil de “tinkerer” (o experimentador) es uno de los más destacados, otorgado a un 8,5% de la comunidad por su tendencia a aprender mediante el ensayo y el error. Estos reconocimientos vienen acompañados de títulos ingeniosos, como el premio al “más propenso a preguntar si un vuelo merece la pena”, reflejando situaciones cotidianas en las que la IA ha sustituido a las búsquedas tradicionales en navegadores.

De las estadísticas al arte generado por IA

La experiencia se completa con un fuerte componente visual e interactivo. Gracias a los avances en sus modelos de imagen y vídeo, incluyendo el reciente despliegue de Sora 2, el resumen genera una pieza de pixel art inspirada en las temáticas tratadas durante el año. Es un detalle que personaliza la vivencia; si un usuario ha estado consultando sobre mudanzas o viajes, el arte reflejará elementos relacionados con esos planes.

Por otro lado, OpenAI ha incluido una sección para mirar hacia el futuro. Los usuarios pueden intentar descubrir qué les depara 2026 mediante una dinámica interactiva en la que deben limpiar una suerte de “niebla del misterio” —con un aspecto similar a la nieve— para desvelar una predicción. Al recargar la página, el sistema ofrece una fortuna distinta, cerrando el ciclo del año con un mensaje inspirador.

La delgada línea entre el asistente y el confidente emocional

Este nivel de personalización y cercanía refuerza una tendencia que va más allá de la simple productividad. Mustafa Suleyman, director de IA en Microsoft, señalaba recientemente en el podcast de Mayim Bialik que el acompañamiento y el apoyo emocional se han convertido en los casos de uso más populares. Según Suleyman, las personas están recurriendo a los chatbots para gestionar desde rupturas sentimentales hasta conflictos familiares complejos.

Aunque matizó que esto no sustituye a una terapia profesional, Suleyman defendió que el diseño de estos modelos —basado en la comunicación no violenta, la falta de juicios y la escucha reflexiva— responde a una necesidad global. Para el directivo, esta tecnología permite a los humanos “desintoxicarse” emocionalmente, proyectando sus sentimientos en la máquina para luego mostrar su mejor versión ante sus seres queridos. Es una forma de sentirse comprendido que, en ocasiones, resulta difícil de encontrar fuera del círculo de amigos íntimos o la pareja.

Escepticismo y retos éticos en Silicon Valley

A pesar del optimismo de algunos líderes, la integración de la IA en la esfera emocional no está exenta de controversia. Sam Altman, consejero delegado de OpenAI, ha manifestado en diversas ocasiones su incomodidad ante la dependencia excesiva de los usuarios. El pasado agosto, Altman reconoció en la red social X que, si bien el consejo de la IA en decisiones vitales puede ser útil, la idea de que la gente confíe ciegamente en ella para sus asuntos más importantes le genera cierta inquietud.

A esta preocupación ética se suman riesgos legales y advertencias de expertos en salud mental. Altman ya advirtió en verano sobre la posibilidad de que, en el marco de un proceso judicial, las empresas tecnológicas se vean obligadas a entregar los historiales de estos chats de corte terapéutico. Por su parte, profesionales del sector han alertado de que sustituir el apoyo humano por el de un bot podría agravar el sentimiento de soledad y crear una dependencia de la validación constante de la máquina.

Incluso con estos riesgos sobre la mesa, otros gigantes tecnológicos como Mark Zuckerberg se inclinan por la democratización de este apoyo. El CEO de Meta ha sugerido que, en un futuro cercano, cualquier persona que no tenga acceso a un terapeuta humano podrá contar con una inteligencia artificial para desempeñar ese papel. El debate queda así abierto: mientras las máquinas nos devuelven un resumen de quiénes fuimos en el último año, la industria se cuestiona hasta qué punto deben acompañarnos en lo que sentimos.