Imaginemos un ordenador que, supuestamente, entiende el idioma chino. Está aislado de todo excepto por una ranura, en la que introducimos un texto en chino, y otra ranura, por la que el ordenador nos devuelve otra hoja con una respuesta. O, para hacerlo más moderno, tenemos un teclado con el que el usuario escribe en chino y, por la pantalla, el ordenador devuelve su respuesta.
Este sistema consigue superar el test de Turing, ya que el usuario no consigue diferenciar a priori si le está respondiendo un hablante de su idioma o si se trata de una máquina. Parece como que el software comprendiera el idioma a la perfección.
Ahora imaginemos que, en ese sistema aislado, se encuentra un ser humano que no tiene ni la más mínima idea de chino. Solo tiene una serie de manuales e instrucciones que le indican, ante las distintas posibles series de ideogramas de entrada, qué salidas habría que dispensar.
Es imposible que ese sujeto aprenda chino, ya que no tiene ninguna información sobre lo que está haciendo, aparte de relacionar símbolos.
¿El hecho de que pase el test de Turing es prueba suficiente de que el sistema entiende el chino? ¿O solo de que puede relacionar de forma coherente entradas y salidas?
¿Se puede decir que este ordenador entiende chino?
El filósofo norteamericano John Searle hizo famoso en 1980 el argumento de la habitación china, que en 1961 el escritor ruso de ciencia ficción Anatoli Dneprov ya había utilizado en una de sus obras.
La idea era mostrar cómo no es cierto que la inteligencia artificial sea capaz realmente de pensar y comprender, sino que no es más que una habitación china en la que, en su interior, se relacionan entradas y salidas sin necesidad alguna de comprensión, salvo por parte de quienes han diseñado la habitación y han puesto a disposición del sujeto los manuales y procedimientos.
En mi opinión, se están exagerando demasiado las capacidades de la IA. Estoy plenamente de acuerdo con la idea de este experimento: una IA, por mucho que la llamemos «inteligencia», no es capaz de pensar. No entiende lo que le decimos, aunque nos dé respuestas que parezcan indicar lo contrario.
Otra cosa es que, llevadas por esos procedimientos y sin tener ni la más remota idea de lo que están haciendo, las inteligencias artificiales puedan hacer una serie de tareas más o menos difíciles. Si nos ponemos a fantasear (como estoy haciendo en Memorias del ocaso), una IA podría llegar a gobernar un país sin saber lo que hace. Solo mediante reconocimiento de patrones a partir de una serie de entradas. ¿Por qué no? Que los políticos sean unos incompetentes no quiere decir que su trabajo no se pueda llegar a automatizar. Si una IA puede emular a un artista, ¿por qué no a un político? Yo diría que sería incluso más sencillo.
Y tú, ¿qué opinas?
¿Quieres recibir contenido como este en tu correo y descargarte gratis estos dos libros?
Sonia
Me parece muy acertada esta entrada. Y me acaba de recordar a la primera inventora del libro electrónico, que además era española. En mi opinión, la IA, es solo el libro electrónico que ella inventó pero más evolucionado.
De hecho, es como si dijéramos que la biblioteca más grande del mundo, o incluso todas las bibliotecas juntas, fueran capaces de pensar y de tener inteligencia por la acumulación de conocimientos que entre todos los libros contienen.
Y como todo, sólo es una herramienta que se puede usar bien o mal.
https://www.xataka.com/historia-tecnologica/angela-ruiz-robles-la-inventora-del-libro-electronico
Jorge Sáez Criado
¡Gracias por tu comentario, Sonia!