Esta semana Apple publicó el estudio “La ilusión del pensamiento”, que, inexplicablemente, ha generado mucho discurso acerca de la inteligencia artificial. Pues probaba que los modelos de inteligencia artificial no son capaces de razonar verdaderamente y que, en vez de esto, solo son muy buenos reconociendo patrones. El hecho de que las IAs no razonan siempre ha sido evidente, desde su código al hecho de que, al preguntarles información factual, son muy propensas a “alucinar” una respuesta que suena coherente y cierta, pero no lo es. Pero la etiqueta de “inteligencia” ha llevado a las personas que no son familiares con el funcionamiento de la tecnología a asumir que en efecto es inteligente y no solo adivina cosas con mucha suerte. De hecho, estudios han demostrado que las personas tienden a diferir al juicio de una “inteligencia” artificial sobre su propio razonamiento, incluso cuando se les dice explícitamente que el conocimiento del modelo artificial es limitado y sus recomendaciones se dan aleatoriamente. Considero que la etiqueta de inteligencia y la ficción contemporánea que en muchas ocasiones imagina un futuro con verdadera inteligencia artificial hace que las personas confundan la ciencia ficción con la realidad sin entender las limitaciones de nuestra tecnología.

Ahora estamos rodeados de IA, pues compañías han descubierto que justamente por esta asociación con un futuro tecnológico brillante, la etiqueta es una manera muy efectiva de vender un producto marginalmente distinto o idéntico a uno que se vendía antes sin el nombre, eso cuando sirven, porque en ocasiones la implementación de inteligencia artificial en un servicio activamente empeora el producto. Ahora tenemos cepillos de dientes con IA que guían tu limpieza diaria y que no son en realidad inteligencia artificial, son tecnología mecánica preexistente, ridículo. El mercado añade IA solo por el nombre, mas no por su funcionalidad. Plataformas como Perplexity o LinkedIn incentivan a sus usuarios a “escribir artículos de IA”, efectivamente llenando el internet de contenido basura que no tiene la más mínima crítica o racionalidad en su proceso.

Esta creación vacía y constante de contenido tiene problemas reales. De inicio, la creación de artículos y de imágenes con inteligencia artificial, además de no aportarle nada a la humanidad y en ocasiones activamente empeorar la calidad del contenido que consumimos y por tanto lo estimulante que este puede ser, también roba de las manos de personas reales. Todos estos modelos están entrenados con algo producido por personas; esto es más notorio en la creación de imágenes, pues toma las comisiones de artistas reales, y al estar entrenado con su arte, está en ocasiones directamente plagiando el trabajo de estos sin su consentimiento, porque las IA toman del internet para su entrenamiento sin preguntarle a los creadores originales si está bien tomar su contenido. Más allá, mientras más contenido de IA hay, la IA tiene más de su propio contenido en su base de entrenamiento y versión tras versión los resultados son un poco peores. Hace dos años modelos como Midjourney creaban imágenes que, mientras no perfectas, se apegaban a lo que se les pedía, más cuando se pedían cosas abstractas y poco fotorrealistas como pinturas al óleo. Ahora todo tiene una calidad extraña que lo hace notoriamente creado con inteligencia artificial. Es un modelo de negocios que o reventará cuando las personas noten los escasos usos reales que tiene o que se canibalizará en el proceso.

Gabriel Humberto Hernández-Bringas Ortiz