Skip to content

¿La IA representa al cerebro?

Published: at 12:00 AM

¿usted cree que los sistemas como ChatGPT piensan?

Si la respuesta es que no, ¿usted cree que en el futuro estos sistemas puedan llegar a pensar?

Primero tendríamos que ponernos de acuerdo en qué quiere decir pensar. En ciencias cognitivas se dice que un ser piensa cuando construye un modelo mental, que es una representación interna del mundo real.

Por ejemplo, antes de los 60s se pensaba que los animales no tenían la capacidad de utilizar herramientas. Es decir, no tenían la capacidad de generar modelos mentales que permitían el uso de herramientas. El trabajo de científicas como Jane Goodall llevó a que aprendamos que los cerebros de los chimpanzes son más cercanos a los de los humanos que pensábamos.

Entonces la pregunta sería, ¿los sistemas como ChatGPT tienen modelos mentales del mundo real? En el caso de los animales hacemos experimentos para averiguar sus modelos mentales. Lo primero sería averiguar si responden “sólo por instinto” o si tienen una idea de sí mismos como individuos, un yo. Aquí se hace el experimento de la marca roja, en el que se le hace al animal una marca en su cara y se le enfrenta a un espejo. Pasar el test sería tocarse a sí mismo al verse al espejo.

El lío con sistemas como ChatGPT es que están diseñados para que generen texto que parezca producido por humanos. En eso se parecen a los loros, tienen la capacidad de generar palabras y frases. Lo que se hace aquí es analizar el texto generado por estos sistemas ante los prompts, ante la luz de la pregunta ¿para entender esta respuesta se requiere un modelo de la mente, o esto puede ser simplemente un sistema de texto predictivo?

El hecho de que estos sistemas puedan tener fallos garrafales como citar artículos que no existen, errar aritmética en una hoja de cálculo, errar al contar letras de una palabra, son demostraciones de que estos sistemas no tienen modelos mentales; son modelos de texto predictivos con bases de datos muy grandes. Autocorrectores sobrecargados.

Entonces bueno, la respuesta puede ser que hoy no tienen la capacidad de pensar, pero seguramente que en el futuro podrá llegarse a esas capacidades. Como la ingeniería nos ha traido cada vez computadoras más poderosas y pequeñas, seguramente podrá solucionar el problema de lograr que la IA piense.

Aquí surge otra dificultad. Aquí no hay una diferencia grande entre los elementos básicos de microelectrónica, los circuitos reales, físicos, y sus modelo teóricos. Hay una diferencia gigante entre estos modelos y los de “ia”. Las redes neuronales son modelos muy torpes de la realidad de una neurona animal. Tanto porque el modelo computacional es una representación burda de lo que se conoce de las neuronas reales, como también porque el conocimiento que tiene la ciencia sobre las neuronas tiene grandes lagunas.

En resumen, las “ia”s no piensan. Y no existe un modelo o teoría, que indique el camino entre la red neuronal y los modelos de la mente.

¿comentarios? hablemos en Mastodon: https://col.social/@gabriel


Next Post
Investigación