Autores: Adolfo Castilla y José María González del Álamo. Innovation Wars, S. L. CIBUC. https://www.innovationwars.com/
Seguimos revisando en este post, de forma somera, la evolución de la Inteligencia Artificial Normal. Nos detenemos primero en los sistemas expertos, otra de las etapas de la IA, continuamos con el tema de la racionalidad limitada y la programación heurística, y pasamos, por fin, al Machine Learning o Aprendizaje de las Máquinas actual. Todo ello, mejor es no perderse, para poder hablar con más facilidad del asunto básico de este post: la Inteligencia Artificial Colectiva
(Imagen de arriba tomada del vídeo youtube,
https://www.youtube.com/watch?v=r3vLyer9rBQ )
Traspasar los conocimientos de los humanos a las máquinas

https://es.slideshare.net/alemacari/guzman-macari-leal-grupo-3-2 )
Terminábamos el post anterior mencionando la programación simbólica o lógica con la que empezó la Inteligencia Artificial. El uso de ese enfoque no ha desaparecido en nuestros días, ni mucho menos, pero nadie osa llamar Inteligencia Artificial a esa actividad.
En los años 80 del siglo pasado se inició otro enfoque, el de los “sistemas expertos”. La idea detrás de ellos era que en términos de conocimientos hay aficionados o practicantes normales de una materia y verdaderos expertos con grandes conocimientos, experiencia y fuerte sentido práctico. Los lenguajes de lógica simbólica no tenían la capacidad de recoger nada de esto y se pensó en la posibilidad de que los programas de ordenador captaran los conocimientos destacados de los expertos y los pusieran a disposición de la solución automática de problemas.
El proceso era engorroso y ha sido abandonado por la rapidez y capacidad de las máquinas para recoger todo tipo de información y conocimiento, pero, de nuevo hay que decir, que se hicieron grandes y buenos sistemas expertos, algunos todavía en uso.
A continuación, y como consecuencia de las nuevas ideas en relación con la racionalidad limitada con la que los directivos suelen tomar su decisiones, se pasó a lo que podría llamarse la “programación heurística”. La idea procede de las posibles situaciones en las que se encuentran los que deciden: certeza, riesgo, incertidumbre, ambigüedad.
La ambigüedad del entorno y del propio pensamiento del hombre y la indeterminación de ambos, dicho sea en términos generales, pueden también programarse en ordenador y dar pie con ello a procesos aleatorios de la inteligencia humana como la creatividad.
Racionalidad limitada
En el fondo es un paso más en la línea de acercar las máquinas al pensamiento, la decisión y la actuación del hombre. En contra de las ideas previas de actuaciones de los hombres siempre racionales y lógicas y decisiones siempre tendentes a la optimización, el mismo Herbert Simon, que tanto defendió la lógica simbólica y el pensamiento siempre racional del hombre durante algún tiempo, fue el que introdujo las ideas de “racionalidad limitada”. Para entonces ya había abandonado su dedicación inicial a la IA y se había concentrado en lo que siempre fue su área de especialización, la Ciencia de la Administración.[1]
Fue un autor muy utilizado en las escuelas de Administración de Empresas, pero además, se concentró en una etapa de su vida en el estudio psicológico del comportamiento económico de los consumidores y de los agentes económicos en general. Sus aportaciones en este terreno le hicieron ganar el Premio Nobel de Economía de 1978.
Los economistas criticaron mucho la concesión de este premio a Simon por dos motivos importantes: uno, por no considerarlo economista y otro, por creer que sus descubrimientos sobre las decisiones de los agente económicos destrozaban en cierta forma los fundamento de la ciencia económica.
Machine Learning
Los avances posteriores vinieron de la mano del interés por el aprendizaje en los humanos y de la aplicación de sus pautas al aprendizaje de las máquinas. Tres temas o tres enfoques de la IA han surgido como consecuencia de ello: las redes neuronales artificiales, las redes neuronales múltiples con el “perceptrón” como realización concreta, y el Machine Learning, Deep Learning, Augmented Learning y otros desarrollos actuales.[2]
Se deducen de la constatación de que el hombre termina siendo inteligente mediante el aprendizaje y de que aprende desde muy pequeño a través de procesos de prueba y error en relación con el entorno en el que se desarrolle su vida. El reconocimiento de patrones es una de las formas a través de las que el hombre aprende desde niño.
Incluso esto último que se consideraba antes muy unido al proceso de la visión del hombre y a la activación en el cerebro de ciertas zonas a las que llegaban las ondas electromagnéticas de las neuronas activadas por las ondas visuales, es en la actualidad una parte importante de la IA y del Machine Learning
La programación y la utilización de algoritmos muy sofisticados dentro de ella, ha avanzado mucho en los últimos tiempos y hay razones para creer que la IA Normal es un área seria de actividad de la que se puede esperar mucho ya que tiene mucho recorrido. Eso sin pensar todavía en algo distinto que es la Inteligencia Artificial Fuerte. Yo no creo, dicho sea de paso, que de la primera se pueda pasar a la segunda.
Se ha creído hasta ahora que la IA Fuerte sería resultado de la complejificación de los ordenadores y de la incorporación de cada vez más componentes, fundamentalmente microchips, pero yo no creo que ese sea el caso. Hay una realidad paralela a la de la materia que es la espiritual o psíquica en la que no hemos entrado todavía científicamente.
[1] Entre sus libros importantes hay que mencionar, Administrative Behavior, The Sciences of the Artificial, Organizations y otros
[2] Por cierto que en español se utiliza para el primero de esos dos términos la horrible expresión de ”Aprendizaje Maquinal”