Podría redefinir “la teoría del conocimiento”

IA generativa

Crédito: DALL-E 2

“La contemplación en las ciencias naturales de un dominio más amplio que lo real conduce a una comprensión mucho mejor de lo real”. —Sir Arthur Eddington

En la Parte 1 de esta serie, dije: «Me abstendré de decir que la Inteligencia Artificial Generativa (IA) es la base de una tercera escuela de epistemología», pero recientemente leí sobre los desafíos de la IA Generativa desde la perspectiva de la metafísica. Ahora mi determinación de no tener una nueva escuela de epistemología se está debilitando y este nuevo artículo explica por qué. Los algoritmos de redes neuronales y aprendizaje profundo, combinados con datos sintéticos, están cerca de la frontera actual en inteligencia artificial (IA). Estas herramientas se están volviendo cada vez más efectivas para proporcionar nuevos conocimientos sobre los sistemas naturales. Igualmente importante, estas herramientas se adaptan particularmente bien a un mundo que ahora entendemos cada vez más en términos de física cuántica, ciencia de la complejidad y pensamiento sistémico. Esta capacidad de mejorar nuestra comprensión de la ciencia y los sistemas naturales es lo que me emociona sobre la IA y la IA generativa en particular.

La ciencia moderna estuvo fuertemente influenciada por Descartes. Descartes vio la ciencia como macroscópica, de arriba hacia abajo, mecanicista y determinista. Este pensamiento creó una metafísica o teoría de la realidad muy empírica. El enfoque de Descartes puede describirse como “metafísica de la sustancia” —la realidad es sustancia— y la sustancia tiene masa y forma. Este enfoque conduce naturalmente a una epistemología (teoría del conocimiento) consistente con un mundo observable. Esta metafísica y epistemología funcionaron bien para lanzar la Revolución Industrial. Cerca del final del siglo XIX, una serie de matemáticos y físicos comenzaron el trabajo original que condujo a la física cuántica.

La física cuántica es el estudio del comportamiento y las interacciones de la materia y la energía a nivel atómico y subatómico. Es una rama de la física que se ocupa de los fenómenos a escalas muy pequeñas. En la mecánica cuántica, partículas como electrones, protones, neutrones y fotones se comportan de formas inesperadas. [1]. Un sistema cuántico existe como una colección de diferentes posibilidades, que pueden ser descritas por probabilidad hasta que se mide. Efectivamente, la escala en la que observamos y describimos la realidad cambió de algo que podías tener en la mano a algo invisible. Dado que no podemos ver las partículas subatómicas o atómicas o su equivalente en forma de onda, no tenemos una comprensión instintiva de la física cuántica, lo que explica por qué tan pocas personas entienden la ciencia y aún menos están de acuerdo con la ciencia.

Si este contenido educativo detallado es útil para usted, suscríbase a nuestra lista de correo de AI para recibir alertas cuando publiquemos material nuevo.

La física cuántica proporciona tres conceptos valiosos para comprender mejor la realidad: 1) la naturaleza de los componentes de la realidad, 2) la combinación de componentes en formas emergentes y 3) la medición reemplaza la causalidad determinista para explicar los fenómenos. La naturaleza componente de la realidad es un enfoque de bloque de construcción jerárquico, autoorganizado y de abajo hacia arriba para crear átomos, moléculas, órganos, animales, humanos. Los componentes también se pueden combinar «sintéticamente» para crear resultados hechos por el hombre que tienen utilidad (valor). Cuando examinamos las combinaciones naturales y sintéticas, reconocemos los «sistemas» y el proceso de emergencia (ciencia de la complejidad), donde un resultado no está causalmente relacionado con los componentes. “La física cuántica muestra que existe un nivel emergente de realidad a escalas mayores; …los objetos no tienen características definidas y fijas (principio de incertidumbre), y que los objetos no están separados unos de otros sino que su identidad está determinada por estructuras internas así como por su lugar en el espacio y el tiempo.” [2] Para simplificar, piense en la mecánica cuántica, la ciencia de la complejidad y el pensamiento sistémico como un cuerpo integrado de pensamiento (la metafísica), aún en desarrollo pero consistente a través de diferentes enfoques y objetivos. [3] Para modelar este fenómeno no lineal y sin equilibrio de los sistemas naturales y artificiales en todas las escalas, necesitábamos nuevas herramientas. Este modelado no se presta al ajuste de datos tradicional ni a los primeros algoritmos de aprendizaje automático. El aprendizaje profundo, las redes neuronales y sus variaciones son quizás las mejores herramientas que tenemos hoy para comprender esta metafísica de 3 partes.

El ganador del premio Turing, Yoshua Bengio, describe el aprendizaje profundo como:

…los métodos apuntan a aprender jerarquías de características con características de niveles más altos de la jerarquía formada por la composición de características de niveles inferiores. El aprendizaje automático de funciones en múltiples niveles de abstracción permite que un sistema aprenda funciones complejas que asignan la entrada a la salida directamente de los datos, sin depender completamente de las funciones creadas por humanos. [4]

Este poder de abstracción para producir y documentar la novela es, de hecho, el poder de todas las matemáticas. La profesora Hannah Fry explica bien este punto.

Las matemáticas tratan de abstraerse de la realidad, no de replicarla. Y ofrece valor real en el proceso. Al permitirte ver el mundo desde una perspectiva abstracta, creas un lenguaje que es excepcionalmente capaz de capturar y describir los patrones y mecanismos que de otro modo permanecerían ocultos. Y, como le dirá cualquier científico o ingeniero de los últimos 200 años, comprender estos patrones es el primer paso para poder explotarlos. [5]

Esta capacidad de abstracción siempre ha sido una habilidad fundamental y única del aprendizaje humano y la creación de conocimiento. Ahí radica la amenaza teórica de que la IA se haga cargo y convierta a los humanos en subordinados o algo peor. Si bien es un tema ético y existencial importante para el siglo XXI, soy más optimista e interesado en la capacidad de los algoritmos avanzados para desarrollar el conocimiento de los sistemas físicos, naturales y creados por el hombre a un nivel más profundo de comprensión. Este potencial lo deja en claro la ganadora del premio MacArthur Genius, Daphne Koller:

Pudimos identificar, usando ML (aprendizaje automático), patrones [within the liver tissue] que se corresponden con los impulsores genéticos conocidos de la enfermedad. Los patólogos humanos no pudieron ver esos patrones porque ni siquiera saben qué buscar. Descubrimos que si dejamos que ML se suelte en las muestras, si permitimos que las máquinas tengan una mirada libre y sin restricciones de los datos, pueden identificar asociaciones que causan y modifican enfermedades que un humano simplemente no puede ver.

La firma de capital de riesgo a16z tal vez sea más simple:

Históricamente, nuestras mejores herramientas para comprender y manipular la biología han sido la observación y la experimentación. Luego, desarrollamos la capacidad de “leer” y “escribir” en biología. Y ahora, la convergencia de la biología con la computación y la ingeniería finalmente ha desbloqueado nuestra capacidad de «ejecutar» en biología. En otras palabras: la biología se está volviendo programable. [6]

Esta capacidad de «leer» y «escribir» «datos sintéticos» es lo que ahora llamamos IA generativa. Los consultores de Gartner Group explican la IA generativa como «técnicas de IA que aprenden una representación de artefactos de los datos y la utilizan para generar artefactos completamente nuevos y originales que conservan una semejanza con los datos originales». Esta generación de datos completamente nuevos y las abstracciones relacionadas es lo que es tan emocionante para Koller. Gartner (y muchos otros) creen que la IA generativa se puede aplicar «en una amplia gama de industrias, incluidas las ciencias de la vida, la atención médica, la fabricación, la ciencia de los materiales, los medios, el entretenimiento, la automoción, la industria aeroespacial, la defensa y la energía». [7]

La ventaja de un enfoque como el de Koller es que el conocimiento del científico o investigador no es el factor limitante que podría ser en el ajuste de datos. Si tuviéramos que desarrollar un mapa simple de creación de conocimiento, «las habilidades humanas para la abstracción y la analogía están en la raíz de muchas de nuestras capacidades cognitivas más importantes». [8] Mapeando estas relaciones, el conocimiento se puede derivar como se muestra a continuación.

Reconocimiento de patrones > Analogía > Abstracción > Nueva perspectiva > Conocimiento

Para mí, este mapa se parece mucho a cómo se comporta la IA generativa. El legendario matemático David Hilbert (1900) dijo: “Las matemáticas son la base de todo conocimiento exacto de los fenómenos naturales”. La reconocida profesora de informática Jeannette Wing amplía el pensamiento de Hilbert:

El pensamiento computacional se centra en el proceso de abstracción: elegir las abstracciones correctas, operar en términos de múltiples capas de abstracción simultáneamente y definir las relaciones entre las capas. [9]

Este enfoque no solo explica el estado actual de la IA, sino que también refleja la compleja metafísica de tres partes de la mecánica cuántica, la ciencia de la complejidad y el pensamiento sistémico. La ciencia de la complejidad explica el sistema jerárquico, el pensamiento sistémico lo aplica a la totalidad de un problema y la mecánica cuántica proporciona las capas fundamentales sobre las que comienza toda síntesis y abstracción. En cierto modo, me parece que los avances en áreas como la IA generativa se han visto favorecidos por nuestro conocimiento científico ampliado de los fenómenos naturales durante los últimos sesenta años. Como el conocimiento de la ciencia avanzado, documentó el poder de la IA para validar la nueva ciencia. Para mí, esto se parece a la autocatálisis, en la que el producto de un proceso es una entrada crítica del proceso. Este proceso o modelo de negocio ha tenido un éxito increíble en el pasado, como lo demuestra el algoritmo de búsqueda de Google que valora los enlaces en función de la cantidad de veces que aparece el enlace en una búsqueda de Google.

EO Wilson, el legendario biólogo de Harvard, inventó la biología computacional. Escribió en 1999:

“Nos estamos ahogando en información, mientras estamos hambrientos de sabiduría. De ahora en adelante, el mundo estará dirigido por sintetizadores, personas capaces de recopilar la información correcta en el momento adecuado, pensar críticamente al respecto y tomar decisiones importantes sabiamente”. Mi esperanza es que el poder computacional de herramientas como la IA generativa sea igualmente exitosa para desentrañar los problemas incrustados en las ciencias sociales. Creo que tal éxito reduce la probabilidad de que los humanos perdamos el control de la IA. A medida que la IA mejora la capacidad de abstraer la percepción y eventualmente determinar el conocimiento, redefinimos la naturaleza de la inteligencia. Más importante aún, por primera vez en la historia de la humanidad podemos tener las herramientas informáticas para avanzar en nuevas soluciones a las desigualdades sociales y el apocalipsis ambiental inminente. Se espera que la IA como la IA generativa haga profética la declaración de misión visionaria de Deep Mind: «Resolver inteligencia y usarla para resolver todo lo demás».

En la Parte 3 de esta serie, planeo discutir un nuevo enfoque para la creatividad y la identificación de oportunidades que requieren los avances en IA.

Nota: Esta visión optimista de la IA quizás fue presentada por primera vez por el erudito John von Neumann en la década de 1950. Como Markowitz explica a von Neumann:

“Von Neumann fomentó una visión de la explicación que era mucho más deliberadamente mecánica y jerárquica. En este mundo “teleológico”, las estructuras gobernadas por reglas simples a nivel micro interactuarían de maneras mecánicas, posiblemente aleatorias; y de su interacción surgirían algunas regularidades de nivel superior que generarían comportamientos más complejos que cualquier cosa que pudiera explicarse a nivel de micro entidades. La complejidad de estas macro propiedades emergentes se caracterizaría formalmente por sus capacidades de procesamiento de información en relación con sus entornos. Las estructuras de nivel superior se considerarían como «organismos», que a su vez interactuarían entre sí para producir estructuras de nivel superior llamadas «organizaciones»….[Von Neumann’s would be a mathematics that] verdaderamente aplicado a lo Natural y lo Social, lo vivo y lo parecido a la vida, de manera uniforme e imparcial. Esta teoría se aplicaría indiferentemente y sin perjuicio de las moléculas, los cerebros, las computadoras y las organizaciones”.

(Mirowski 2002, 144, 147) (Bhattacharya 2022)

[1] ChatGPT, OpenAI

[2] Teoría cuántica y de sistemas en la sociedad mundial: ¿no hermanos y hermanas sino parientes todavía?

[3] Física Estadística y Complejidad

[4] Yoshua Bengio, (2009), Aprendizaje de arquitecturas profundas para IA

[5] Hannah Fry, Las matemáticas del amor: patrones, pruebas y la búsqueda de la ecuación definitiva

[6] Biología de la programación: Leer (r), Escribir (w), Ejecutar (x) (a16z)

[7] 5 tecnologías impactantes del radar de impacto de tendencias y tecnologías emergentes de Gartner para 2022 (Gartner)

[8] Abstracción y creación de analogías en inteligencia artificial (arXiv)

[9] Cumbre de profesores de Microsoft Research Asia 2012

Este artículo fue publicado originalmente en Medio y reeditado en TOPBOTS con permiso del autor.

¿Disfrutas de este artículo? Regístrese para obtener más actualizaciones de investigación de IA.

Le avisaremos cuando publiquemos más artículos resumidos como este.

Fuente del artículo

Deja un comentario