Skip to content

Capítulo libro: Introducción a la Inteligencia Artificial

Published: at 12:00 AM

Table of contents

Open Table of contents

¿Qué es inteligencia artificial?

Historia de la inteligencia artificial

Históricamente el término inteligencia se ha referido a las capacidades de racionamiento de los seres humanos, luego la inteligencia artificial hace referencia a las computadoras que puedan pensar como una persona.

Hay dos problemas con ésta definición. Primero, está el que la comprensión que tiene la humanidad sobre la inteligencia ha evolucionado radicalmente en el siglo XX y primeras décadas del siglo XXI. Todas las definiciones tajantes que se han construido para diferenciar a los seres humanos de los demás animales han tenido que modificarse. En algún momento se pensaba que la nuestra era la única especie que usaba herramientas, que planificaba, que tenía capacidad de jugar. Todos estos comportamientos se han encontrado en las demás especies animales. Esto impacta el desarrollo de la inteligencia artificial, porque si no sabemos qué es la inteligencia natural, difícilmente podríamos imitarla.

El segundo problema es que los sistemas artificales que hemos podido construir han cambiado drásticamente de capacidad. El desarrollo de éstas máquinas ha seguido un círculo virtuoso, en el que las primeras computadoras permitieron mejorar las herramientas que hicieron más eficiente la construcción de nuevas computadoras. Estas dos condiciones han llevado a que lo que históricamente se ha considerado una habilidad de pensamiento superior, en el sentido que sólo lo podían hacer las personas, ha cambiado. La primera disciplina que fue susceptible de ser sistematizada es la matemática, con trabajo de personas como Alan Turing. Antes de él no era claro que las computadoras pudiesen llevar a cabo computación generalizada. Es decir, algunas actividades que anteriormente eran muy difíciles -digamos el álgebra de matrices- hoy se hacen con facilidad en las computadoras.

Ahora, una confianza exagerada en la velocidad de los esos avances computacionales han llevado a que promesas incumplidas. Repetidamente ha pasado que las personas que trabajan en desarrollar la inteligencia artificial hacen promesas que luego no se pueden cumplir. Esto lleva a que la sociedad les retire la confianza, y con ello los recursos. Estas épocas se han llamado los “inviernos de inteligencia artificial”.

Como disciplina de estudio, la inteligencia artificial surge en 1955. Tiene el objetivo de “crear máquinas que lleven a cabo las operaciones de pensamiento más avanzadas del pensamiento humano”. En los 40s se genera la Neurona artificial como un modelo de la estructura básica del cerebro. La computación artificial con estas neuornas se lleva a cabo por medio de redes de neuronas artificiales, o redes neuronales. Surgen como una posibilidad de generación de un sistema artificial que pueda pensar. En los 60s se prometía que “en 20 años las computadoras podrían hacer cualquier actividad que puede hacer una persona”. En los 70s, al no poder cumplir, se lleva a soluciones particulares; en lo que se llamó inteligencia débil (o estrecha).

En los años 2000, con los avances en capacidad de cómputo (tanto en almacenamiento como velocidad) unido a la aparición de las grandes bases de datos llevan a un nuevo interés por la disciplina. Unido a la aparición del concepto computacional de Transofrmers en el 2010, esto ha permitido de nuevo avances en ésta disciplina.

Críticas al concepto de ‘i.a.’

Un análisis del avance en general de la ciencia de la computación nos muestra que es muy importante que comprendamos y podamos usar las tecnologías. Pero por otro lado un análisis crítico de la historia de la inteligencia artificial, en el contexto de los “inviernos de i.a.”, nos indica que en el desarrollo de ésta disciplina se ha repetido el patrón en el que las promesas suelen ser muy avezadas, pero la implementación real se queda corta y es muy tímida. Por lo tanto éstas críticas nos invitan a actuar con cautela y escepticismo ante las promesas grandiosas que no han sido mostradas en práctica.

Pongámoslo en contexto. Los sistemas de automatización basados en procesamiento de texto natural han sido exitosos en construir sistemas como Google Translate. Ahora, estas traducciones son útiles para comunicación básica. Pero no son capaces de captar las sutilezas, por lo tanto las traducciones de libros y publicaciones, o las comunicaciones importantes entre gobiernos, empresas, etc, sólo pueden ser hechas por personas. O en un segundo ejemplo, los sistemas atomatizados de conducción son útiles en situciones predecibles, como la conducción en autopistas rectas. Pero fallan estrepitósamente en el tráfico en ciudades.

Una segunda línea de crítica sobre estos sistemas apunta hacia los costos, pagados por la sociedad, para su funcionamiento. Pide llevar a cabo un análisis de costo beneficio, en el que en la primera columna se tenga en cuenta tres aspectos, o externalidades negativas.

Ciencia de datos1

Una posible solución a los problemas inherentes con respecto al concepto de i.a. es tomar una visión más general del campo de estudio. En este sentido es útil hablar del concepto de Ciencia de Datos. Esta es la disciplina interdisciplinaria que incluye tres áreas que se sobrelapan: el conocimiento disciplinar del dominio de una disciplina, en nuestro caso lo público; el conocimiento estadístico y matemático, que permite analizar los conjuntos de datos; y el conocimiento de las ciencias de la computación, que permite diseñar algoritmos para analizar y visualizar eficientemente la información.

TODO Incluir el diagrama de: http://drewconway.com/zia/2013/3/26/the-data-science-venn-diagram

El análisis de un problema utilizando la ciencia de datos sigue un esquema en el que están las siguientes fases:

  1. Análisis descriptivo: en el que se describen las variables del problema bajo análisis y utilizanod la estadística descriptiva se llega a una comprensíon inicial de las relaciones cuantitativas del problea.

  2. Hipótesis: basándose en el conocimiento disciplinar y el análisis descriptivo, se proponen hipótesis sobre las variables del problema bajo estudio.

  3. Análisis cuantitativo: utilizando herramientas computacionales se construyen estos análisis proveyendo información que nos lleva fortalecer o desechar las hipótesis.

  4. Conclusiones: que nos llevan a reevaluar las bases del problema, generar nuevas variables y proponer nuevos enfoques, lo que puede llevar de nuevo al primer paso.

En el sector público, la ciencia de datos tiene la posibilidad de permitir la construcción de políticas de precisión, llevando a que los gobiernos puedan implementar programas orientados a las poblaciones más necesitadas2.

Aprendizaje de máquina

Una forma de clasificar los problemas de acuerdo a sus datos es identificarlos en el espectro de caja negra a caja blanca. Los primeros serían problemas para los cuales no tenemos ningún conocimiento del mecanismo que los causa, luego sólo podemos hacer estudios descriptivos. También se conocen como problemas fenomenológicos. En el otro extremo tenemos los problemas para los cuales tenemos total claridad de sus mecanismos, estos son los problemas de caja blanca. En general los problemas nuevos son de caja negra (piense en el covid en diciembre del 2020), y a medida que la civilización avanza se van volviendo grises (piense en la microeconomía).

Para estudiar los datos, o para simular un problema de caja blanca podemos hacer un algoritmo computacional. Como sabemos de entrada todas lsa relaciones es sencillo matematizarla. Un ejemplo de esto es llevar la contabilidad cuando se cuenta con toda la información.

Ahora, cada vez hay más sistemas en los que tenemos una gran cantidad de información y no necesariamente se conocen las relaciones entre todas las variables. En ese caso, para poder extraer información de los datos se crean modelos que son parcialmente fenomenológicos, en los que los pesos que entran en la determinación de las relaciones se obtienen al analizar los datos mismos.

Cuando este proceso se lleva a cabo de manera iterativa, o aún automática, se dice que el sistema (computador) aprende de los datos, o se dice que son sistemas de aprendizaje de máquina. Aunque es importante tener en cuetna que aquí el aprendizaje es en sentido práctico o reducido a la acción misma que se queire obtener.

Tal vez por ello es mejor una definición más técnica. Dice Tom Mitchell:

“se dice que un programa de computador aprende de la experiencia E, con respecto a la tarea T y la medida de exito P, si su exito con respecto a T, medido por P, aumenta con la experiencia E”.3

Inteligencia artificial generativa

A partir del 2017, científicos de Google desarrollan una nueva forma de organizar el aprendizaje de máquina. En este esquema el texto se codifica numéricamente en tokens, los que se representan en una serie de tablas como vectores. A diferencia de los sistemas anteriores, aquí se utiliza el contexto, otros tokens para llevar a cabo el procesamiento. Los conceptos que estén más cerca tendrán una mayor influencia que los que no.

TODO: incluir imágen puede ser de wikipedia https://en.wikipedia.org/wiki/Transformer_(deep_learning_architecture) TODO: citar “attention is all you need”

Esta tecnología permitió a las compañías generar chatbots, sistemas de imágen a texto y sistemas de generación de videos. En la actualidad (tercera década del siglo XXI), se usa éste concepto indistinguiblemente del de ia. Esto puede llevar a confusión, dado que claramente éstos sistemas no presentan inteligencia en el sentido humano, y aunque desarrollos como los transformers sean un gran paso en el campo de las redes neuronales, a la fecha no hay un mecanismo claro que permita llegar de ésta implementación actual a inteligencia en el sentido más amplio de la palabra.

Estructura interna de la inteligencia artificial

Red neuronal de un nivel

Redes neuronales

Entrenamiento de las redes neuronales, algoritmo Backpropagation

Estocasticidad

Tipos de Algoritmos

Clasificación

Natural language processing

LLMs

Casos de uso

Notas a pie

Bibliografía

Footnotes

  1. [@vanderplas2016python] Python Data Science Handbook. Jake VanderPlas, pg. xix.

  2. La bibliografía para ésta sección es: Data Science for Public Policy. Chen, Rubin, Cornwall, página 1.

  3. Atribuido a Tom Mitchell, en Aurelien Geron, hands on machine learning… 2019, O’Reilly. pg. 2


Previous Post
Estadística 2, 2025 S1 (archivado)
Next Post
Pandas