Autores: Adolfo Castilla y José María González del Álamo. Innovation Wars, S. L. CIBUC. https://www.innovationwars.com/
Profundizamos ahora algo en el terreno de la Inteligencia Artificial. Lo consideramos necesario para nuestro tema central de Inteligencia Artificial Colectiva. Creemos y así lo indicamos a continuación, en las dificultades del hombre, hoy por hoy, para avanzar en el camino hacia una Inteligencia Artificial Fuerte. Pero existe la posibilidad de una superinteligencia no necesariamente unida a la autoconsciencia. Eso es lo que desarrollaremos al final de esta serie de posts. La Inteligencia Colectiva complementada con Internet y con la inteligencia artificial de todo tipo existente en las redes y en los ordenadores que las soportan, con los hombres unidos a ellas además, pueden dar lugar a una superinteligencia muy útil para la humanidad.
Peligros de la superinteligencia

En el post anterior hemos hablado de la Inteligencia Artificial Normal y brevemente de la Inteligencia Artificial Fuerte. Diremos algo más de ellas ahora pero adelantamos que la segunda está bastante estancada y que no creemos en su acercamiento a lo más esencial del pensamiento del hombre, es decir, al psiquismo, subjetivismo, espiritualismo y consciencia.
Muchos de los actores en el mundo de la IA no tienen preocupación alguna por dicha componente no material del hombre. Sencillamente avanzan reproduciendo el pensamiento del hombre en las máquinas, mezclando las experiencias humanas con ellas o sencillamente simulando en el ordenador con algoritmos diversos los procesos de cálculo, los de memorización, los de aprendizaje, los de razonamiento, los de decisión y otros, del individuo racional. Y hay que reconocer sus éxitos.
No parece, sin embargo, que nos estemos acercando a la verdadera inteligencia del hombre, aunque hay autores avisando sobre la posibilidad de creación de una superinteligencia artificial, con el consiguiente peligro para las civilizaciones humanas. El conocido libro de 2014, Superintelligence. Paths, Dangers, Strategies, del investigador de la Universidad de Oxford, Nick Bostrom, pone énfasis en los peligros de la ocurrencia de tal cosa. Este autor, profesor de filosofía y director del Future of Humanity Institute, ha sido apoyado en sus advertencias, a raíz de la publicación del libro, por personajes muy conocidos como el propio Stephen Hawking (1942-2018), Bill Gates (Nacido en 1955) o Elon Musk (Nacido en 1971).[1]
Opiniones sobre las máquinas que piensan
Posteriormente al libro de Bostrom, el empresario cultural y editor estadounidense, John Brockman (Nacido en 1941), lanzó en su plataforma Edge en 2015, lo que llama THE EDGE QESTION, una pregunta de relevancia que plantea cada año. En dicho año la pregunta fue: ¿Qué piensa usted sobre las máquinas que piensan?.
El resultado de las intervenciones se publicó en un libro con casi 200 capítulos de otros tantos autores conocidos, incluido el propio Nick Bostrom. [2] La verdad es que las espadas quedan un poco en alto en cuanto a la peligrosidad de las máquinas con inteligencia, aunque sí, éste y otros trabajos recientes, han abierto el camino de una ética para la Inteligencia Artificial y un diseño responsable en este terreno.
Se ha comprobado en este último sentido, que las máquinas que aprenden pueden tener, y de hecho tienen, importantes sesgos en su software interno. Con frecuencia dicho software incorpora tendencias e imperfecciones existentes en nuestras sociedades, ya sean de tipo racista, homofóbico, antifeminista, xenofóbico u otros.
Los asuntos de la consciencia y de la autoconsciencia, considerados la esencia del hombre, no son fundamentales para la Inteligencia Artificial Normal. Los investigadores en ella tienen mucho terreno por delante y no prestan mucha atención a lo que llamaríamos una verdadera inteligencia.
Inteligencia Artificial Fuerte y Filosofía
La Inteligencia Artificial Fuerte sigue siendo un terreno más apto para los filósofos y los psicólogos que para los informáticos. Muchos de estos últimos la han criticado hasta la saciedad y algunos como el filósofo americano, Herbert Dreyfus (1929-2017), han argumentado sólidamente sobre la imposibilidad de máquinas replicadoras del pensamiento humano.
El pensamiento no es lineal, matemático ni determinista, por un lado, ni la ambigüedad del hombre es como la reproducen los modelos destinados a replicar las condiciones en que se toman las decisiones, por otro. Y mucho menos el aprendizaje humano puede ser reproducido por los algoritmos y sistemas de aprendizaje en vigor.
Según Dreyfus, muy apoyado en Heidegger, la
experiencia humana es muy compleja y el pensamiento no es algo desligado del cuerpo
físico del hombre en su conjunto ni del contexto en el que el hombre vive. Para disponer de Inteligencia Artificial
Fuerte habría que crear previamente Vida Artificial Fuerte y seres muy
parecidos en todo, incluyendo su cuerpo y su entorno, al hombre mismo.[3]
[1] Nick Bostrom, Sperintelligence. Paths, Dangers, Strategies, OXFORD University Press, Oxford, 2014
[2] John Brockman (Editor), What to Think About Machines That Think, Harper Perennial, 2014
[3] Para entrar en esas cuestiones habría que entrar en el complejo mundo de la biología actual, también en fuerte evolución y en el que están produciendo incontables y radicales avances. La combinación de lo orgánico con lo digital puede ser otra vía de evolución. Pensando en el largo plazo no se puede decir que el hombre no consiga metas que hoy parecen difíciles.