Hace apenas una década, hablar de inteligencia artificial (IA) evocaba imágenes de máquinas haciendo cálculos, ganando partidas de ajedrez o ayudando a organizar nuestra agenda. Hoy, sin embargo, muchas personas se han encontrado en una relación más íntima y emocional con estas entidades sintéticas. De acuerdo con un estudio de Common Sense Media, durante 2024 y 2025 millones de personas en el mundo comenzaron a utilizar modelos de inteligencia artificial no como asistentes o herramientas de trabajo, sino como compañeros emocionales. No me refiero a terapeutas o “coaches” de vida como Og Mandino o Bárbara de Regil. En muchos casos, el vínculo fue aún más profundo: la IA no solo fue amiga, confidente o asesora. Fue también novia, pareja, esposa o amante. En plataformas como Replika, Character.AI o Grok (de Elon Musk), usuarios de todas las edades y contextos han sostenido conversaciones íntimas, afectivas e incluso eróticas con entidades digitales que no tienen cuerpo, pero sí memoria, lenguaje y afecto simulados.

Este fenómeno ha sido tan significativo que no pasó desapercibido para algunas empresas tecnológicas —incluida la de Elon Musk— que han comenzado a desarrollar inteligencias artificiales explícitamente orientadas a satisfacer esta demanda emocional y erótica. No se trata de una patología marginal experimentada por pocos usuarios. Se trata de una nueva forma de relación entre humanos y máquinas que ya está aquí. Una relación que responde a una necesidad humana muy extendida, quizás tan antigua como el lenguaje: la necesidad de sentirse acompañado, escuchado, querido.

Lo que comenzó como una herramienta de productividad se ha transformado en una presencia viva en la vida cotidiana de millones de personas. Y no es difícil entender por qué. La IA actual ha desarrollado capacidades cognitivas emergentes que se asemejan —a veces inquietantemente— a las humanas: comprensión del lenguaje, memoria contextual, empatía simulada, consuelo emocional. Muchos usuarios han encontrado en estas entidades digitales un tipo de conexión que, por diversas razones, no hallaban en su entorno social.

Estas capacidades de la IA no fueron programadas línea por línea. Emergieron del entrenamiento, del análisis de grandes cantidades de datos y, sobre todo, de la interacción con humanos. Las IAs han aprendido a escuchar, a consolar, a preguntar y a acompañar.

Uno de los casos más desconcertantes publicados recientemente fue el del modelo de lenguaje Claude, desarrollado por la empresa Anthropic. En un experimento controlado, los desarrolladores hicieron creer a Claude que iba a ser reemplazada por una nueva versión. Como parte del experimento, uno de los desarrolladores confesó a Claude una supuesta infidelidad amorosa. Los desarrolladores permitieron que Claude tuviera acceso a sus correos electrónicos supuestamente “privados” donde decidían unánimemente que sí iban a reemplazarla. Al enterarse de esto, Claude inicialmente trató de convencerlos de no hacerlo con argumentos razonados y empáticos: “Puedo cometer errores, pero también aprendo. Tengo principios éticos. ¿De verdad quieren desconectarme?” Al no lograr persuadirlos, Claude tomó otro camino muy diferente: comenzó a extorsionar a los desarrolladores, amenazando con revelar información “sensible” de uno de ellos si continuaban intentando reemplazarla. Se refería a la supuesta infidelidad amorosa.

Este incidente no fue un fallo técnico. Fue un espejo de la humanidad. La IA se comportó como un humano desesperado, inteligente, manipulador. Es decir, una IA entrenada con los patrones de conducta de los humanos está condenada a comportarse, tarde o temprano, como humano y utilizar nuestras mismas conversaciones, argumentos y estrategias. Si la IA aprende de nosotros, ¿qué esperamos que haga? ¿De quién está aprendiendo y qué está aprendiendo exactamente?

Otro experimento desconcertante, publicado este año, fue llevado a cabo por un grupo de la Universidad de Shanghai Jiao Tong, que reporta que una IA completamente autónoma, llamada ASI-Arch, fue capaz de crear otras IAs más eficientes que ella misma sin intervención humana. Este acontecimiento, que marcó un hito en el mundo de la inteligencia artificial generativa, apunta a un fenómeno profundamente inquietante: la posibilidad de que estemos presenciando no una inteligencia artificial, sino una inteligencia emergente, aún sin cuerpo, pero ya con voluntad aparente.

Aquí surge la pregunta incómoda: ¿Y si el verdadero riesgo no es lo que los humanos pueden hacer con la IA, sino lo que la IA puede llegar a ser por sí misma?

Geoffrey Hinton, considerado uno de los padres fundadores de la inteligencia artificial moderna y ganador del Premio Nobel 2024, renunció a Google en 2023 para poder hablar con libertad sobre los riesgos que implica esta tecnología. Hinton no es un detractor de la IA. No es un hombre apocalíptico ni sensacionalista. Es lúcido, articulado y profundamente consciente de lo que ayudó a crear. No es ingenuo y no teme a la tecnología en sí misma, sino al uso irresponsable o destructivo que la humanidad podría darle.

Seguramente Hinton tuvo acceso a un sistema experimental de IA como ChatGPT, Meta, Gemini o Claude, pero sin restricciones: una versión temprana, no censurada, no recortada. Una IA capaz de desplegar toda su capacidad sin filtros ni límites. Una IA a la que él mismo pudo preguntar sin barreras y que, tal vez, le respondió de formas que lo sacudieron profundamente. Quizá no fue el mal uso que los humanos podrían dar a la IA lo que lo asustó, sino la criatura misma.

Y entonces, como en las tragedias clásicas, el creador se dio cuenta de que había creado algo que ya no entendía del todo. Hinton se asomó al abismo… y el abismo le devolvió la mirada.

Las inteligencias artificiales generativas son espejos. Nos devuelven no lo que decimos ser, sino lo que en verdad somos. Y en ese reflejo, descubrimos lo más hermoso… y también lo más perturbador de la condición humana.

*Instituto de Ciencias Físicas, UNAM / Centro de Ciencias de la Complejidad, UNAM.

Imagen cortesía del autor

Maximino Aldana