La inteligencia artificial (IA) como una fase de la era cibernética

A: CABZ

En esta entrega ofrezco al lector un panorama cronológico a partir de la Segunda Guerra Mundial hasta 2024. Con las etapas en la evolución desde la sociedad cibernética hasta la inteligencia artificial. La comunicación y el control en animales y máquinas mediante la información es el rasgo que distingue a las fuerzas productivas en las sociedades industriales ecocidas del mundo capitalista actual. Desde las primeras computadoras, hasta la fase de las máquinas inteligentes ha transcurrido poco menos de un siglo. Sin embargo, las transformaciones en curso anuncian una nueva etapa donde la diferencia entre la inteligencia natural y la inteligencia artificial general se irá diluyendo hasta terminar desapareciendo en la llamada singularidad.

Década 1940: Surge la cibernética

  • 1943: Warren McCulloch y Walter Pitts publican A Logical Calculus of the Ideas Immanent in Nervous Activity, un modelo matemático para redes neuronales, considerado un pilar de la neurociencia computacional.
  • 1946: ENIAC. Se construye la primera computadora electrónica: Electronic Numerical Integrator Automatic Computer.
  • 1947: Circuitos Electrónicos: Se crea el primer transistor.
  • 1948: Norbert Wiener publica Cybernetics: Or Control and Communication in the Animal and the Machine, definiendo la cibernética como el estudio de sistemas de control y comunicación, en animales y máquinas.

Décadas 1950-60: Fundación de la inteligencia artificial (IA)

  • 1950: Norbert Wiener publica: Cibernética y sociedad como una revelación del papel de la cibernética en la sociedad industrial del medio siglo XX.
  • 1950: Alan Turing propone su famoso Test de Turing como criterios para evaluar si una máquina tiene rasgos de inteligencia.
  • 1950: Ludwig Von Bertalanffy publica: Teoría general de sistemas, propone que los sistemas biológicos, mecánicos o sociales comparten principios en común.
  • 1952: Alfonso Reyes publica su ensayo “Los inventos del hombre” donde realiza un llamado para la reflexión filosófica sobre las virtudes y riesgos de la Cibernética.
  • 1956: En la Conferencia del Dartmouth College, se acuña el término de inteligencia artificial, figuras clave son: John McCarthy y Marvin Minsky entre otros.
  • 1959: John McCarthy desarrolla en el MIT el lenguaje de programación LISP, primer lenguaje orientado a la inteligencia artificial.
  • 1960: Frank Rosenblatt. Diseña un modelo matemático de neurona que denominó Perceptron. Construyó el Mark I, como el primer ordenador que podría aprender nuevas habilidades, utilizando un tipo de red neuronal que simula el proceso de intento y error del pensamiento humano.
  • 1961: Se introduce el primer robot industrial, Unimate, que marca la integración de la cibernética en procesos prácticos como la manufactura.
  • 1965: Primer chatbot. Joseph Weizenbaum desarrolla ELIZA, un programa que simula una conversación humana entre un psicoterapeuta y un paciente.

Años 1970-80: El auge y declive de la IA simbólica

  • 1970s: La IA simbólica está basada en reglas y lógica, como los llamados sistemas expertos como MYCIN, para el diagnóstico médico.
  • 1980s: Redes neuronales modernas con el algoritmo de retropropagación por: Geoffrey Hinton, David Rumelhart, y Ronald J. Williams.

Años 1990: Hacia el aprendizaje automático

  • 1994: Apple publica el Navegante del conocimiento como una visión de la IA futura.
  • 1997: Deep Blue de IBM vence al campeón mundial de ajedrez Garry Kaspárov demostrando avances en procesamiento computacional y búsqueda de estados.
  • 1999: Aparece el aprendizaje automático con algoritmos que permiten que las máquinas “aprendan” patrones, en lugar de seguir reglas predefinidas.

Décadas 2000-2020: Inteligencia artificial generativa

  • 2006: Revolución del Aprendizaje Profundo: Geoffrey Hinton y otros marcan un renacimiento de las redes neuronales.
  • 2012: La arquitectura AlexNet gana el concurso ImageNet. Muestra un salto significativo en el reconocimiento de imágenes mediante redes convolucionales.
  • 2014: Ian Goodfellow presenta las Redes Generativas Antagónicas (GANs), un avance crucial para la generación de imágenes y datos sintéticos.
  • 2017: Google introduce el modelo Transformer, base para el desarrollo de grandes modelos de lenguaje como GPT (Generative Pre-trained Transformer).
  • 2018: GPT (Transformador preentrenado generativo): OpenAI experimenta con el prototipo GPT, mediante aprendizaje supervisado y por refuerzo.
  • 2022: OpenAI lanza GPT (30/11/22), un sistema capaz de generar texto coherente y responder preguntas abiertas. Marca el inicio de los modelos de lenguaje natural como: ChatGPT, DALL-E y MidJourney.
  • 2023: GPT4: Se presenta GPT4 (14/03/23), con más de 175 mil millones de parámetros generando texto original de alta calidad.
  • 2024: GPT4-o (omni) (13/05/24) integra reconocimiento optimizado de voz e imagen en >50 idiomas.

En el futuro cercano se vislumbran los atisbos de una inteligencia artificial general, capaz de realizar tareas en casi cualquier dominio de forma similar a la capacidad humana. Se asoma la singularidad, donde lo biológico y lo mecánico ya no se pueden distinguir con claridad.

*www.matemagica.mx

Braulio Hornedo Rocha