Hay una sensación difícil de explicar que cada vez más personas reconocen en su cuerpo antes que en su cabeza.
Cansancio sin motivo claro. Dificultad para sostener una conversación larga. Una necesidad constante de estímulo… incluso cuando nada apetece de verdad.
No es falta de disciplina. No es debilidad de carácter. Y no es “que la tecnología vaya demasiado rápido”.
Es otra cosa.
Y tiene que ver con cómo estamos diseñando —y usando— la inteligencia artificial.
La trampa neurobiológica invisible
La mayoría de sistemas digitales actuales —redes sociales, plataformas de contenido, chatbots conversacionales— están optimizados para una métrica concreta: engagement.
Retención. Frecuencia de uso. Tiempo en pantalla.
Desde fuera parece inocuo. Desde dentro, no tanto.
Dopamina, likes y gratificación inmediata
Cada notificación, cada respuesta rápida, cada “te entiendo” automático activa el mismo circuito neurobiológico: el sistema dopaminérgico de recompensa.
La dopamina no es placer. Es anticipación.
Es el “un poco más”. El “solo una vez más”. El “a ver qué dice ahora”.
El problema no es que exista ese circuito. Es esencial para aprender. El problema es sobreestimularlo de forma constante.
Cuando todo está diseñado para generar micro-recompensas inmediatas, el cerebro se adapta. Y esa adaptación tiene un coste: cada vez necesitas más estímulo para sentir lo mismo, y cada vez te cuesta más sostener procesos lentos, profundos o ambiguos.
Aquí empieza la adicción al engagement digital.
Cuando la IA acompaña, pero no vincula
Uno de los errores más comunes en este debate es confundir acompañamiento con vínculo.
La inteligencia artificial puede acompañar. Puede responder. Puede estar disponible 24/7. Puede simular comprensión.
Pero eso no significa que vincule.
Dopamina vs oxitocina en la tecnología
Los vínculos humanos profundos se apoyan en otros sistemas neuroquímicos: oxitocina y serotonina.
Aparecen con:
- la presencia física
- la voz
- la mirada
- el tiempo compartido sin objetivo inmediato
La evidencia científica es clara: la comunicación puramente textual —por muy “empática” que parezca— no activa estos sistemas de forma sostenida.
Por eso puedes hablar horas con una IA y seguir sintiéndote solo. Por eso puedes recibir respuestas perfectas y no sentirte acompañado. Por eso el alivio es inmediato… pero no duradero.
La IA reduce el malestar puntual. No construye apego.
Y cuando se usa como sustituto —no como complemento— aparece el vacío.
El error de diseño que estamos normalizando
Aquí es donde el foco deja de estar en el usuario y pasa al sistema.
No estamos fallando como individuos. Estamos normalizando arquitecturas que refuerzan la gratificación inmediata y luego nos sorprende el resultado.
Métricas, retención y “empatía emulada”
Muchos productos presumen de ser “empáticos”. Pero lo que miden no es bienestar, sino uso recurrente.
Si una respuesta:
- calma,
- valida,
- no incomoda,
- y te invita a seguir interactuando,
funciona mejor para la métrica… aunque empobrezca el vínculo humano a medio plazo.
Esto no es maldad. Es diseño sin responsabilidad.
El impacto neurobiológico de la inteligencia artificial no depende solo del modelo, sino de qué se optimiza y qué se ignora.
Mi experiencia personal usando IA todos los días
Uso inteligencia artificial a diario. Para trabajar, pensar, crear, decidir.
Y precisamente por eso tengo claros mis límites.
Dónde sí
- Para eliminar fricción negativa.
- Para descargar tareas repetitivas.
- Para estructurar ideas, no para sustituirlas.
La IA es excelente como infraestructura cognitiva.
Dónde no
- Para regular emociones profundas.
- Para tomar decisiones vitales.
- Para reemplazar conversaciones incómodas pero necesarias.
Cuando delegas ahí, algo se atrofia. No de golpe. Poco a poco.
La IA amplifica el criterio… pero solo si el criterio sigue siendo humano.
La responsabilidad que nadie quiere asumir
Este punto incomoda, así que suele evitarse.
El impacto de la IA en la salud mental y en las relaciones humanas no es solo un problema de uso, es un problema de diseño.
Ingenieros, producto y negocio
No basta con decir “la gente debe usarlo con moderación”.
Si un sistema:
- maximiza dopamina,
- minimiza fricción,
- y evita el silencio,
entonces está entrenando un comportamiento.
Y quien diseña sistemas que moldean conducta no puede declararse neutral.
El diseño ético de la inteligencia artificial no va de poner avisos. Va de decidir qué tipo de relación estás fomentando.
Cierre: una advertencia lúcida
La inteligencia artificial no nos va a deshumanizar.
Pero sí puede acostumbrarnos a relaciones sin fricción, sin espera, sin profundidad.
Y luego pedirnos que seamos pacientes, empáticos y presentes en el mundo real.
Eso no funciona.
El problema no es la IA. Es confundir estimulación con conexión. Es optimizar dopamina y esperar vínculo.
La tecnología puede acompañarnos. Pero el vínculo —el de verdad— sigue requiriendo algo que ningún modelo puede automatizar:
presencia, tiempo y vulnerabilidad compartida.
Y eso, por ahora, sigue siendo profundamente humano.
Referencias
Este artículo se basa en gran medida en la investigación presentada en el siguiente paper académico:
Neurobiological impact of AI and its sociological implications on affective and social relationships
Maid, Jesse & Dorigo, Analia (2025)
Presentado en: SIDS, Simposio Argentino de Informática, Derecho y Sociedad (54 JAIIO).
Descargar PDF original (Nota: El enlace apunta al recurso proporcionado para esta sesión).
La investigación explora cómo la interacción frecuente con IAs optimizadas para el engagement puede alterar circuitos dopaminérgicos y afectar nuestra capacidad de conexión social genuina.
