No, no soy un Robot. Una inteligencia muy artificial.
«Lo que nos suceda en el futuro no depende sólo del pasado,
sino de hasta qué punto lo comprendamos».
Garry Kaspárov
Demostrarle a un robot, que no soy un robot, me parece tan absurdo como explicarle a un negacionista, porqué las vacunas no llevan nanorobots conectados al 5G, con las cuales Bill Gates va a poder controlar sus pensamientos (como si ya no los tuvieran controlados), ya que aún no existe dicha tecnología. 74 años después de su aparición, nos encontramos con el test de Turing a la inversa: en lugar de que sea un humano quien compruebe si habla con una máquina, es la máquina quien debe comprobar que habla con un humano. Vivimos en la era del sinsentido.
Sin embargo, lo que realmente me lleva a pensar la frase: “una inteligencia muy artificial”, es que como filósofa, cuanto más conozco (creo) sobre Inteligencia Artificial, más quiero a la humanidad, pero sobre todo, más comienzo a dimensionar con claridad sus presentes y futuras dificultades. Para quedarme en el presente, he llegado ala conclusión que uno de los grandes problemas que tenemos con la Inteligencia Artificial, no es ni siquiera la tecnología en si misma (incomprensible para el 97% de la humanidad), no, es más sutil que eso, el verdadero problema para mi es semántico. ¿Te suena raro? Veámoslo con detenimiento.
Inteligencia – Artificial: la contradicción aparece desde el principio: en el planteamiento del nombre. Quedémonos inicialmente con la primera palabra: inteligencia.
En el libro Sapiens, Yuval Noah Harari[1] plantea que la diferencia entre los Neandertales y los Homo Sapiens, es que estos últimos se unieron para colaborar, y gracias a aquello que hoy llamaríamos “inteligencia colaborativa” (dentro de un conjunto de habilidades) el Homo Sapiens desarrolló el lóbulo frontal, es decir, toda nuestra función cognitiva. En la actualidad como Homo Sapiens, seguimos siendo la única especie viva con “inteligencia” en el planeta Tierra.
Ahora bien, pensemos el significado de la Inteligencia. Existen tantas definiciones del término, como habitantes en el planeta. Y sin embargo, la que mejor expresa mis pensamientos, se remonta a Grecia, más exactamente a Aristóteles.
Y no es casualidad que sea Aristóteles, ya que, si hay alguien al que le debemos tener un teléfono móvil en la mano, es a este filósofo. Aristóteles, al plantear las 3 leyes de la lógica, de la cual se nutre el cálculo infinitesimal -que a fue planteado por dos filósofos: Newton y Leibniz-, y sobre la cual se fundamenta la Inteligencia artificial, dio una de las mejores definiciones que hasta hoy se han escrito de la inteligencia:
“La inteligencia no es un cúmulo de conocimiento,
es la capacidad de transformar dicho conocimiento”.
¡Es tan evidente! Si la inteligencia se delimitara a un depósito de conocimientos, una biblioteca seria inteligente, o cualquier algoritmo, capaz de realizar grandes ecuaciones de cálculo.
Ahora bien, hablemos de transformar. Para Aristóteles existían dos clases de conocimientos: el científico y la experiencia. El científico es aquel que busca de manera sistemática las causas y el porqué de las cosas, para proferir principios; la experiencia, es todo aquel conocimiento que nos llega través de los sentidos, y gracias a ello podemos desarrollar el SENTIDO COMÚN de las cosas. Y aunque hoy se habla de una inteligencia artificial con sentido común (Common-sense reasoning), sin embargo en un informe del pasado mes de noviembre, la revista Science Daily muestra como aún estamos lejos de esta realidad: (https://www.sciencedaily.com/releases/2020/11/201118141702.h
tm)
Para Aristóteles la inteligencia sería entonces la suma del conocimiento de la experiencia y el científico. No parece tan difícil, pero existe un pequeño detalle: el filósofo cree que la inteligencia debe estar acompañada de la práctica de las virtudes éticas, las cuales sirven para ejercer el bien; la inteligencia sin ética es peligrosa. En palabras de Goya: “El sueño de la razón produce monstruos”.
Por ello, unir dos palabras tan equidistantes como Inteligencia y Artificial, más que un problema semántico, es un oxímoron, que nos vendieron aquellos que entienden las máquinas, no como un medio, sino como un fin (inteligencia sin ética). El solo planteamiento de la premisa resulta tan sesgado, que el mismo Alan Turing ya lo advertía en su célebre discurso de 1947:
“Propongo que consideremos la siguiente pregunta: “
¿Pueden pensar las máquinas?”
Para empezar, definamos el significado de los términos “máquina” y “pensar”, pero es una actitud peligrosa”.
Así pues, en lugar de centrar el debate en si las máquinas van a pensar, deberíamos centrar el debate, en cuándo y cómo vamos a pensar nosotros, entre otros temas, en la Inteligencia Humana por ejemplo.
Desarrollar la inteligencia humana nos permitió subsistir como especie, nos diferencia de los animales, y nos ha llevado a donde estamos hoy, como humanos en el planeta Tierra. ¿Qué podría ser mas nuestro, si no es la inteligencia?
Sin embargo, la ciencia nos habla de Inteligencia Artificial y de robots, de manera mesiánica; yo me pregunto: ¿cómo hemos llegado a concebir robots y los sofisticados sistemas de computo hoy? ¿No será que justamente estamos olvidando algo decisivo, en esa carrera del culto a la técnica?
¿Sabemos la cantidad de horas de pensamiento humano que ha llevado Spot (https://www.bostondynamics.com/spot), el robot de Boston Dynamics? ¿Sabemos cuántas personas se necesitan en Houston para hacer que UN SOLO cohete despegue? ¿O sabemos cuántos especialistas, programadores, años, horas, requirió el desarrollo del juego GO en internet? Si no lo sabes, te invito a descubrirlo en el documental: AlphaGo: https://youtu.be/WXuK6gekU1Y .
¿Será que en la erad digital, se nos esta pasando por alto que es la Inteligencia humana la que hasta hoy a desarrollado todo lo que tenemos frente a nosotros? Cualquier desarrollo tecnológico que se haga hoy, ha sido ideado y pensando por humanos.
Así como en la actualidad -afortunadamente- nos preocupamos por revindicar y proteger a la mujer y las minorías, ¿porqué no empezamos a preocuparnos por visibilizar la inteligencia de toda la especie humana?
Y por ello sigo creyendo que nuestro problema es semántico, ya que entre otros, no estamos planteando las preguntas correctas, por no tener claros los conceptos que resultan claves a la hora de definir nuestra propia experiencia de vida. En lugar de preguntarnos por el futuro de las máquinas (que también), deberíamos estar preguntándonos por el futuro de los humanos. En lugar de preguntarnos si los robots tendrán ética, deberíamos preguntarnos, si nosotros estamos en capacidad de afirmar sin rubor que somos éticos. O ¿cómo podemos exigir ética a las máquinas, si tal vez nosotros ni siquiera sabemos lo que es la ética? O lo que es peor, la pesadilla de Aristóteles, lo sabemos, pero no lo practicamos.
Tal vez si comenzamos a elaborar un uso semántico que de respuesta a los dilemas actuales, con juicios pragmáticos, usando con propiedad palabras que hasta ahora nos resultan tan etéreas como: Inteligencia, vida, ser humano, ética, pensar, sentir, consciente, etc., entonces seríamos capaces de comenzar a trazar con más precisión las tan difuminadas fronteras que hoy existen entre el hombre y la máquina.
¿Qué ocurriría si en lugar de estar acribillando en Twitter a los que piensan diferente, creamos una red social (thinkintelligence, por ejemplo) que únicamente sirva para llegar a consensos en temas que como humanos, nos permitirían trazar un primer paso para que las máquinas no vayan delante, sino a nuestro lado?
[1] Harari, Y. N. (2014). Sapiens. De animales a dioses: Una breve historia de la humanidad. Editorial Debate