2 El conocimiento de la naturaleza física: espacio y tiempo, azar y orden
La epistemología contemporánea se ha desarrollado en estrecha conexión con problemas, conceptos y enfoques originados en las ciencias naturales. La física, en particular, ha proporcionado un marco conceptual singularmente fértil para reformular cuestiones epistemológicas clásicas y plantear interrogantes nuevos sobre la naturaleza del conocimiento científico, sus límites y sus condiciones de posibilidad.
Este capítulo se organiza en torno a una pregunta-guía: ¿qué queda del ideal clásico de conocimiento científico —universal, determinista, reduccionista— después de las revoluciones conceptuales de la física del siglo XX? Cada sección ofrece una respuesta parcial. La relatividad cuestiona la universalidad del marco espacio-temporal; la mecánica cuántica disuelve el determinismo laplaciano; la teoría de sistemas complejos problematiza el reduccionismo; y la noción de emergencia abre un horizonte de explicación pluralista. Al final del recorrido, el ideal clásico no ha sido abandonado sin más, sino reformulado en profundidad: el conocimiento científico es más matizado, más consciente de sus límites y más interdisciplinar de lo que la imagen heredada de la ciencia permitía suponer.
2.1 Física, biología y epistemología: conexiones fundamentales
Cuatro dominios científicos han ejercido una influencia determinante en la evolución de la teoría del conocimiento durante las últimas décadas:
La visión sistémica de la vida. En las tres últimas décadas se ha reforzado la concepción sistémica de la vida, con mayor énfasis en la complejidad, las redes y los patrones de organización. Este enfoque obliga a familiarizarse con conceptos como la autopoiesis, las estructuras disipativas, las redes sociales y la evolución en términos sistémicos. Tiene su aplicación en el análisis de problemas de salud pública y en la gestión de crisis ecológicas o económicas globales (Capra & Luisi, 2014).
Física, naturaleza y espacio-tiempo. La física contemporánea ha proporcionado un contexto privilegiado para explorar cuestiones sobre el conocimiento, la realidad y la naturaleza del universo. Teorías como la relatividad general y la mecánica cuántica han obligado a revisar los conceptos tradicionales de tiempo, espacio y causalidad, con implicaciones que obligan a replantearse aspectos fundamentales sobre la naturaleza de lo real, la percepción y el alcance del conocimiento humano (Haroche & Raimond, 2006; Rovelli, 2024).
Epistemología e intuiciones precríticas sobre el mundo. Las teorías científicas a menudo resultan incompatibles con intuiciones de sentido común sobre el mundo y sus procesos, condicionando los debates sobre justificación, percepción, inducción y naturalización del conocimiento (Carroll, 2014). Esta tensión entre conocimiento científico y comprensión intuitiva plantea desafíos metodológicos y epistemológicos significativos.
Cosmología y conceptos fundamentales. La cosmología contemporánea obliga a manejarse con conceptos distintos de los de la física clásica, esenciales para entender la naturaleza del espacio-tiempo y las leyes que rigen el cosmos (Caler Gallardo et al., 2018; Müller & Bostrom, 2016). Sin estos marcos actualizados, resulta imposible una comprensión informada del universo tal como lo conocemos.
El interés epistemológico de estos desarrollos radica no solo en sus contenidos específicos, sino en cómo han transformado nuestra comprensión de la investigación científica, la naturaleza de las explicaciones causales y los límites de la reducción teórica (Wallace, 2022) y del conocimiento humano (Machamer & Silberstein, 2002).
«La oposición entre determinismo y aleatoriedad ha sido rebatida ya dos veces. El estado atractor simple, que garantiza la posibilidad de prever de forma determinista el estado futuro de un sistema puede, como hemos explicado (pp. 161-167), ser interpretado como la resultante de comportamientos microscópicos representados ellos mismos como esencialmente aleatorios. Sin embargo, a la inversa, una descripción macroscópica en términos de ecuaciones diferenciales, que parezca encarnar el determinismo causal, ya que relaciona la variación del sistema en un momento dado con el estado del sistema en este momento, genera aquí un comportamiento observable de tipo aleatorio. Por consiguiente, a partir de ahora nuestras descripciones del mundo se organizarán en torno a los temas de estabilidad e inestabilidad y no a la oposición entre azar y necesidad.»
— I. Prigogine, I. Stengers (1979). La nueva alianza: metamorfosis de la ciencia. Prefacio, p. 16.
«Hace ya cincuenta años, desde la aparición de la mecánica cuántica, la idea de la simplicidad de lo microscópico se había vuelto insostenible. […] Nos encontramos en un mundo indiscutiblemente aleatorio, en un mundo en el que la reversibilidad y el determinismo son casos particulares y en el que la irreversibilidad y la indeterminación microscópicas son la regla.»
— I. Prigogine, I. Stengers (1979). La nueva alianza. Introducción, p. 38.
2.2 La physis: modelos para explicar el orden, el azar y el caos
2.2.1 El modelo teleológico
En la filosofía presocrática, physis (Φύσις) designa tanto el origen como el desarrollo de cualquier cosa o proceso. Durante el período sofista, el concepto de physis —aquello que tiene su razón de ser en sí mismo— se contrapone al de nomos —lo que es fruto de un acuerdo o convención.
Para Aristóteles, la physis es la causa inmanente de todo cambio, del reposo y del movimiento (Física, 192b 13 y ss); la esencia de los seres que poseen en sí mismos el principio de su movimiento. Distingue así las cosas que son por physis, de las que son por technē (τέχνη), es decir, artificiales, derivadas de la actividad humana. Lo natural se rige por un principio inmanente de cambio ligado a su esencia (teleología); lo artificial es un mero artefacto sin actividad intrínseca (Physis, s. f.).
El modelo teleológico se mantuvo vigente como forma válida de explicación científica hasta el siglo XVII. Su abandono progresivo no se produce con el advenimiento de la ciencia moderna y el auge del sistema newtoniano, centrado en causas eficientes de tipo mecánico. De hecho, sobrevive hasta bien entrado el siglo XIX, cuando la biología evolucionista de Darwin aporta conceptos, desarrollos teóricos y evidencia empírica que hacen plausible la adaptación de las especies sin referencia a un plan preconcebido (Mayr, 1988).
Incluso en la segunda mitad del siglo XX, autores como Morton Beckner expresaban su incomodidad con el auge de los enfoques mecanicistas que consideraban la biología una extrapolación compleja de la física y la química. En su obra The Biological Way of Thought (1959), Beckner dedica un espacio considerable a los herederos modernos del vitalismo, los “biólogos organísmicos”, para quienes “el todo es mayor que la suma de las partes”. Su posición reflejaba la convicción ampliamente extendida de que la biología era una disciplina única y autónoma que, pese a depender de los datos fisicoquímicos, requería sus propios modelos explicativos. Entre estos, asigna un lugar destacado a las explicaciones genéticas, historicistas y teleológicas (en campos como la taxonomía, la evolución y la teoría de la selección y la genética, para resolver problemas de clasificación, p. ej.), sin las cuales no veía posible aproximarse a la “verdad” biológica (Beckner, 1959).
Hacia el final del siglo XIX, el naturalismo y el método hipotético-deductivo habían consolidado el modelo newtoniano de causación eficiente como el único plenamente compatible con la actitud científica, relegando el finalismo al campo de la filosofía o la teología (Hall, 1952).
2.2.2 El modelo mecanicista
La revolución científica del siglo XVII estableció el mecanicismo como paradigma dominante en la explicación de los fenómenos naturales. Conviene distinguir, sin embargo, al menos tres momentos del paradigma mecanicista, cuyas diferencias son filosóficamente significativas. El mecanicismo de Descartes concibe la naturaleza como res extensa, pura geometría en movimiento, sin fuerzas a distancia ni cualidades ocultas. Newton rompe con este programa al introducir la gravitación como fuerza actuando a distancia, un concepto que el propio Newton consideraba filosóficamente problemático pero empíricamente necesario. Finalmente, el mecanicismo de Laplace radicaliza la pretensión determinista: dado un conocimiento completo del estado del universo en un instante, las leyes newtonianas determinan unívocamente todo estado futuro y pasado (Shapin, 1996).
A pesar de sus diferencias internas, las versiones del mecanicismo comparten un núcleo de compromisos: la causalidad eficiente como forma legítima de explicación (los fenómenos se explican por causas anteriores, no por finalidades futuras); el reduccionismo metodológico (los sistemas complejos se comprenden descomponiéndolos en partes); el determinismo (dado un estado inicial, el estado futuro queda fijado por leyes); y la cuantificación matemática como lenguaje de las relaciones entre fenómenos.
El paradigma mecanicista alcanzó su máxima expresión en los Principia Mathematica de Newton (1687), que proporcionaron un marco matemático unificado para la mecánica celeste y terrestre. El éxito predictivo de la física newtoniana reforzó la confianza en que todos los fenómenos naturales podían reducirse, en principio, a interacciones mecánicas entre partículas (Bunge, 1959).
Sin embargo, ya en el siglo XIX emergieron fenómenos que desafiaban el marco mecanicista: la termodinámica introducía la irreversibilidad temporal; el electromagnetismo revelaba campos que no se reducían a partículas; los fenómenos de interferencia cuántica mostraban comportamientos no clásicos. Estos desarrollos prepararon el terreno para las revoluciones conceptuales del siglo XX (Carnap, 1966).
2.2.3 El modelo estadístico: de Boltzmann a la irreversibilidad
Entre el mecanicismo determinista y las revoluciones del siglo XX se sitúa un eslabón conceptual decisivo: la mecánica estadística de Boltzmann, Maxwell y Gibbs (c. 1860-1900). Su importancia para la epistemología es más que notable, porque constituye el primer caso en la historia de la física en que leyes irreductiblemente estadísticas se aplican a sistemas cuyas partes obedecen ecuaciones deterministas.
La mecánica estadística introduce dos innovaciones conceptuales profundas. Primero, la idea de que las propiedades macroscópicas de un sistema (temperatura, presión, entropía) son promedios estadísticos sobre un número inmenso de microestados: no describen el comportamiento de ninguna partícula individual, sino del colectivo. Segundo, la interpretación probabilística de la segunda ley de la termodinámica: la entropía de un sistema aislado tiende a crecer, no porque una ley lo imponga mecánicamente, sino porque los estados de alta entropía son abrumadoramente más numerosos que los de baja entropía.
Esta transición tiene consecuencias epistemológicas directas. Si las leyes macroscópicas son estadísticas aun cuando las leyes microscópicas sean deterministas, entonces el nivel de descripción condiciona el tipo de explicación disponible. La reducción no es transparente: no basta con conocer las leyes fundamentales para derivar sin más el comportamiento del sistema. Prigogine y Stengers articularán más tarde esta intuición en su programa sobre estructuras disipativas e irreversibilidad (Prigogine & Stengers, 1984).
2.2.4 El modelo relativista
El siglo XX presenció una transformación radical de los conceptos fundamentales de espacio, tiempo y causalidad con la teoría de la relatividad especial (1905) y general (1916) de Albert Einstein.
La relatividad especial estableció que el espacio y el tiempo no son absolutos sino relativos al observador; que la simultaneidad depende del marco de referencia; que la velocidad de la luz es constante e invariante; y que masa y energía son intercambiables (E=mc²). La relatividad general revolucionó la comprensión de la gravitación al concebirla no como una “fuerza” sino como curvatura del espacio-tiempo producida por la masa-energía: la gravedad es geometría, y los cuerpos siguen geodésicas en un espacio-tiempo curvo. Sus predicciones —lentes gravitacionales, ondas gravitacionales, agujeros negros— han sido confirmadas experimentalmente con precisión extraordinaria, desde la precesión del perihelio de Mercurio hasta la detección directa de ondas gravitacionales en 2015 (Carroll, 2022; Rovelli, 2024).
La relatividad plantea al menos cuatro desafíos epistemológicos: (1) los límites del realismo ingenuo, pues las propiedades espaciotemporales resultan no ser absolutas sino dependientes del observador; (2) la interdependencia entre teoría y observación, ya que las mediciones presuponen el marco teórico; (3) la unificación conceptual, pues espacio, tiempo, materia y energía forman un todo integrado; y (4) una predictibilidad refinada que permite mayor precisión en regímenes gravitacionales intensos. Estas implicaciones conectan directamente con los debates sobre realismo científico introducidos en el capítulo anterior.
2.2.5 El modelo sociológico
Durante la segunda mitad del siglo XX emerge un cuarto enfoque: el programa sociológico fuerte y los estudios sociales de la ciencia. Este modelo, desarrollado por autores como Bloor, Latour, Woolgar y Pickering, propone que las teorías científicas son, en parte, construcciones sociales influidas por factores culturales, políticos y económicos (Bloor, 1976; Latour, 1987); que el desarrollo científico no está determinado únicamente por la “naturaleza” sino también por factores socio-históricos; y que algo tan básico como establecer los “hechos” involucra procesos de negociación social (Pickering, 1984).
Las críticas al programa sociológico fuerte —desde el “escándalo Sokal” hasta los argumentos de los realistas científicos como Weinberg (1992)— señalan el riesgo de relativismo: la sobresocialización del conocimiento puede socavar los criterios de validación empírica. Sin embargo, los desarrollos más recientes en epistemología social de la ciencia buscan integrar el reconocimiento legítimo de dimensiones sociales sin caer en el relativismo extremo (Saatsi, 2018).
Aunque los factores sociales influyen en la dirección de la investigación, la financiación y las prioridades, el contenido empírico de las teorías bien confirmadas (relatividad, mecánica cuántica, evolución) muestra robustez transcultural y resistencia a meras convenciones sociales. La epistemología contemporánea busca el equilibrio entre ambas dimensiones.
2.3 Marcos conceptuales fundamentales
La física contemporánea ha desarrollado un conjunto de conceptos que estructuran nuestra comprensión de la naturaleza. Los modelos históricos del apartado anterior no se han sucedido limpiamente; más bien, han sedimentado capas conceptuales que coexisten en tensión productiva. Esta sección examina tres grupos de conceptos esenciales: (1) espacio, tiempo y causalidad; (2) determinismo, indeterminación y azar; (3) simetría, conservación y leyes fundamentales.
2.3.1 Espacio, tiempo y causalidad
La historia del concepto de espacio-tiempo puede leerse como una sucesión de desplazamientos filosóficos. La visión newtoniana postulaba espacio y tiempo como contenedores absolutos, independientes de su contenido material. El relacionismo de Leibniz y Mach objetaba que espacio y tiempo no son sustancias sino relaciones entre objetos. La relatividad de Einstein resolvió el debate de un modo inesperado: el espacio-tiempo es una entidad física unificada cuya geometría depende de la distribución de masa-energía (Curiel, 2023).
La relatividad especial introduce el cono de luz, que define para cualquier evento tres regiones: el pasado absoluto (eventos que pueden influir causalmente), el futuro absoluto (eventos que pueden ser influidos) y la región tipo espacio (eventos causalmente desconectados, donde la simultaneidad es relativa). Esta estructura impone un límite fundamental a la propagación de información y causalidad: nada puede viajar más rápido que la luz. Este límite no es tecnológico sino estructural, inscrito en la geometría misma del espacio-tiempo (Müller & Bostrom, 2016).
La mecánica cuántica complica profundamente la noción de causalidad. En 1964, John Bell demostró que si la mecánica cuántica es correcta, entonces ninguna teoría de “variables ocultas locales” puede reproducir todas sus predicciones. Las desigualdades de Bell proporcionan una prueba empírica: si las mediciones sobre partículas entrelazadas violan estas desigualdades, la naturaleza no puede ser simultáneamente realista (las propiedades existen antes de la medición) y local (no hay influencia instantánea a distancia).
Los experimentos de Alain Aspect (1982), John Clauser (1972) y Anton Zeilinger (1990s-2000s), reconocidos con el Nobel de Física 2022, confirmaron decisivamente la violación de las desigualdades de Bell, cerrando progresivamente las “lagunas experimentales” (loopholes). Para la epistemología, el resultado es profundo: la alternativa no es entre determinismo e indeterminismo como posiciones filosóficas libres, sino entre opciones todas igualmente no-clásicas: no-localidad (interpretación de Bohm), indeterminismo fundamental (Copenhague), multiplicidad de mundos (Everett) o relaciones sin relata (interpretación relacional de Rovelli). Ninguna de ellas restaura el ideal laplaciano de conocimiento completo (Maudlin, 2011, 2019; Rovelli, 2021).
Crucialmente, el entrelazamiento cuántico no permite transmisión superlumínica de información. La causalidad se preserva a nivel estadístico, aunque los eventos individuales sean genuinamente indeterminados. La correlación cuántica es irreductible a una causa común clásica, lo que tiene implicaciones directas para la teoría de la causalidad discutida en (§2.5).
2.3.2 Determinismo, indeterminación y azar
El determinismo laplaciano postulaba que, dado el estado completo del universo en un instante, las leyes naturales determinan unívocamente todos los estados futuros y pasados. Este determinismo fuerte ha sido cuestionado por tres desarrollos convergentes: la mecánica cuántica introduce indeterminación fundamental (principio de incertidumbre de Heisenberg); la teoría del caos revela que la sensibilidad exponencial a condiciones iniciales hace la predicción prácticamente imposible a largo plazo (Gleick, 1987; Lorenz, 1963); y la termodinámica muestra que la irreversibilidad y el aumento de entropía introducen una “flecha del tiempo” que el determinismo clásico no contemplaba.
Para la epistemología es crucial distinguir no dos sino cuatro tipos de indeterminación, cada uno con consecuencias distintas:
| Tipo | Fuente | Ejemplo paradigmático | Consecuencia epistemológica |
|---|---|---|---|
| Ontológica | Mecánica cuántica | Desintegración radiactiva | Límite intrínseco al conocimiento; no superable ni en principio |
| Epistémica | Información incompleta | Lanzamiento de dado | Límite práctico; superable en principio con más datos |
| Dinámica (caos determinista) | Sensibilidad a condiciones iniciales | Sistema de tres cuerpos | Horizonte de predictibilidad finito pero determinado |
| Computacional (azar efectivo) | Irreducibilidad computacional | Autómatas de Wolfram | No existe atajo computacional; hay que simular paso a paso |
La distinción entre indeterminación dinámica y computacional, aunque sutil, es filosóficamente relevante. En un sistema caótico, el horizonte de predictibilidad depende de la precisión de las condiciones iniciales y crece (logarítmicamente) con ella. En un sistema computacionalmente irreducible (Wolfram 2002), no existe ningún método más rápido que la simulación completa para predecir el estado futuro: la predictibilidad no depende de las ecuaciones sino de la clase de complejidad computacional del problema.
La física cuántica sugiere que al menos algunos fenómenos involucran azar ontológico genuino. Aunque interpretaciones deterministas como la de de Broglie-Bohm permanecen lógicamente posibles, es esencial entender que el determinismo bohmiano es no-local: salva el determinismo al precio de abandonar la localidad relativista. No es un retorno al determinismo clásico, sino una reconfiguración igualmente radical del marco conceptual (Maudlin, 2019).
La posición superdeterminista — según la cual las correlaciones de Bell se explican porque las condiciones iniciales del universo están correlacionadas con las elecciones del experimentador — ha sido defendida por Hossenfelder (2022), pero es rechazada por la mayoría de los filósofos de la física por socavar la independencia experimental necesaria para cualquier forma de ciencia empírica (cf. Adlam, 2022).
2.3.3 Simetría, conservación y leyes fundamentales
Uno de los descubrimientos más profundos de la física del siglo XX es la conexión entre simetrías y leyes de conservación, establecida por el Teorema de Noether (1918):
| Simetría | Ley de conservación | Significado |
|---|---|---|
| Traslación temporal | Energía | Las leyes no cambian en el tiempo |
| Traslación espacial | Momento lineal | Las leyes son iguales en todos los puntos |
| Rotación espacial | Momento angular | Las leyes no dependen de la orientación |
| Simetría gauge | Carga eléctrica | Invariancia bajo transformaciones locales |
El teorema de Noether no es solo un resultado técnico: implica que las leyes de conservación no son hechos brutos sino consecuencias de simetrías, lo que plantea una cuestión filosófica abierta. ¿Son las simetrías “reales” — estructuras objetivas del mundo que la física descubre — o artefactos de nuestra representación matemática? El realismo estructural óntico, defendido por Ladyman y French, sostiene que la estructura matemática (simetrías, relaciones) es lo que existe fundamentalmente, y que los “objetos” físicos son derivados de ella (French, 2014; Ladyman & Ross, 2007). Este debate conecta directamente con la cuestión del realismo científico tratada en el capítulo anterior.
La ruptura espontánea de simetría — mecanismo por el cual un sistema obedece leyes simétricas pero adopta un estado que no lo es — es fundamental en la física de partículas (mecanismo de Higgs) y en la cosmología (transiciones de fase en el universo temprano), y ofrece además una metáfora poderosa para la emergencia: el orden macroscópico puede surgir de leyes microscópicas simétricas.
La simetría combinada CPT (Carga-Paridad-Tiempo) es una simetría fundamental en física de partículas. C (conjugación de carga) intercambia partícula y antipartícula; P (paridad) aplica una reflexión espacial; T (reversión temporal) invierte el sentido del tiempo. Aunque C, P y T pueden violarse individualmente, la combinación CPT es preservada en todas las teorías cuánticas de campos relativistas. Su violación implicaría una revisión fundamental de la física.
La tensión entre la búsqueda de unificación (teoría cuántica de campos, modelo estándar, gravedad cuántica) y el reconocimiento de emergencia y pluralismo metodológico es uno de los temas centrales de la filosofía de la ciencia contemporánea. La física persigue una “teoría del todo” mientras reconoce que, incluso si existiera, sería insuficiente para derivar las leyes de la biología o las ciencias sociales — un punto que Anderson (1972) articuló con claridad memorable.
Si las leyes de conservación son consecuencias de simetrías (Noether), ¿debemos considerar las simetrías como más fundamentales que las leyes? ¿Qué implicaciones tendría esto para la noción de “ley natural” discutida en el Capítulo 1?
2.4 Del objeto simple al sistema complejo
La transición conceptual del reduccionismo atomista a la teoría de sistemas representa uno de los cambios más significativos en la ciencia del siglo XX. Esta sección examina cómo conceptos como organización, autoorganización y emergencia han transformado nuestra comprensión de fenómenos que van desde la física hasta la biología y las ciencias sociales.
2.4.1 Sistemas abiertos y estructuras disipativas
Un sistema es un conjunto de elementos interrelacionados que forman una totalidad organizada con propiedades no reductibles a las de sus componentes aislados (Bertalanffy, 1968). La clasificación básica distingue sistemas cerrados (que intercambian solo energía con el entorno, como un termo aislado, y tienden al equilibrio termodinámico), abiertos (que intercambian materia y energía, como organismos y ecosistemas, y pueden mantenerse lejos del equilibrio) y aislados (sin intercambio, como el universo teóricamente considerado, donde la entropía siempre crece).
Los sistemas abiertos son especialmente importantes porque pueden mantener estados estacionarios lejos del equilibrio, desarrollar estructuras ordenadas espontáneamente y evolucionar hacia mayor complejidad. Ilya Prigogine demostró que sistemas termodinámicos abiertos, lejos del equilibrio, pueden generar estructuras disipativas: patrones de organización que se mantienen gracias a un flujo continuo de energía. Los ejemplos van desde las células de Bénard (convección en fluidos calentados) y la reacción de Belousov-Zhabotinsky (oscilaciones químicas) hasta huracanes y ecosistemas (Prigogine & Stengers, 1979, 1984).
La importancia epistemológica de las estructuras disipativas es triple: muestran que el orden puede emerger sin diseñador (auto-organización); que la irreversibilidad temporal es productiva y crea novedad; y que los fenómenos interesantes ocurren lejos del equilibrio, no en él.
2.4.2 Autoorganización: principios generales
La autoorganización es el proceso por el cual un sistema desarrolla estructura y orden sin instrucciones externas específicas. Fenómenos tan diversos como la cristalización (física), los ciclos autocatalíticos (química), la morfogénesis (biología) y los mercados (economía) comparten un mecanismo general subyacente: retroalimentación positiva operando bajo restricciones. La retroalimentación positiva amplifica fluctuaciones locales; las restricciones (energéticas, materiales, geométricas) canalizan esa amplificación hacia patrones estables. Kauffman (1993) mostró que esta combinación es suficiente para generar orden espontáneo en redes booleanas, un resultado que ilumina tanto el origen de la vida como la robustez de las redes genéticas.
La criticalidad autoorganizada (Bak, 1996) añade un matiz fundamental: muchos sistemas naturales se mantienen espontáneamente en el borde entre el orden y el desorden —en un “punto crítico”— donde las perturbaciones se propagan a todas las escalas (distribución tipo ley de potencias). Terremotos, avalanchas, extinciones y fluctuaciones de mercados exhiben este comportamiento, lo que sugiere que la criticalidad no es una coincidencia sino un atractor de la dinámica de ciertos sistemas complejos (Ladyman & Wiesner, 2020; Thurner et al., 2018).
2.4.3 Atractores, caos y dinámica no lineal
Los sistemas dinámicos son sistemas cuyo estado evoluciona en el tiempo según reglas determinadas. La teoría de sistemas dinámicos ha revelado comportamientos mucho más ricos de lo que la visión clásica anticipaba.
Un atractor es un estado o región del espacio de estados hacia el cual tiende el sistema. Los tipos de atractor revelan la complejidad creciente del comportamiento dinámico: el punto fijo (estado estacionario único, como un péndulo con fricción), el ciclo límite (oscilación periódica, como los relojes biológicos), el toro (cuasi-periodicidad, como ciertos sistemas planetarios) y el atractor extraño o caótico (nunca se repite, con sensibilidad a condiciones iniciales, como la dinámica atmosférica).
El caos determinista merece especial atención epistemológica. Se trata de un comportamiento aparentemente aleatorio generado por ecuaciones deterministas simples, caracterizado por: (a) sensibilidad a condiciones iniciales (exponentes de Lyapunov positivos: pequeñas diferencias crecen exponencialmente — el “efecto mariposa”); (b) mezcla topológica (trayectorias inicialmente próximas divergen y cubren todo el atractor); y (c) estructura fractal subyacente (densidad de órbitas periódicas). Lorenz (1963) descubrió este fenómeno en un modelo simplificado de convección atmosférica: tres ecuaciones diferenciales generan un atractor con forma de “mariposa” cuya trayectoria nunca se repite.
La implicación epistemológica es profunda: incluso sistemas deterministas y de baja dimensionalidad pueden ser impredecibles a largo plazo. Esto obliga a desacoplar dos conceptos que el determinismo clásico identificaba: determinismo (las ecuaciones fijan el futuro) y predictibilidad (podemos anticipar el futuro). Un sistema puede ser completamente determinista y completamente impredecible en la práctica (Gleick, 1987).
La teoría de sistemas dinámicos y la complejidad se aplican hoy a modelización climática (sistemas no lineales con múltiples escalas temporales), epidemiología (dinámica de enfermedades en redes de contacto), economía (mercados como sistemas adaptativos complejos) y ecología (resiliencia y transiciones críticas). Estos dominios comparten propiedades de complejidad organizada: muchos componentes interactivos, retroalimentación, no-linealidad y emergencia (Krakauer, 2019; Ladyman & Wiesner, 2020; Mitchell, 2009).
Si un sistema climático es determinista pero caótico, ¿tiene sentido hablar de “predicción del cambio climático”? ¿Qué distingue una predicción meteorológica (determinista, a corto plazo) de una proyección climática (estadística, a largo plazo)? ¿Qué implica esto para la demarcación ciencia/no-ciencia discutida en el Cap. 1?
2.5 Causalidad en sistemas complejos
2.5.1 Las cuatro causas aristotélicas, transformadas
La tipología aristotélica de causas —eficiente, formal, material y final— no ha sido “superada” por la ciencia moderna tanto como reconfigurada. La revolución mecanicista del siglo XVII privilegió la causa eficiente (un evento anterior produce un evento posterior) y desterró la causa final del ámbito científico. Pero los desarrollos de los siglos XX y XXI han reintroducido, bajo nuevos nombres, aspectos de las otras tres causas:
| Causa aristotélica | Transformación moderna | Ejemplo contemporáneo |
|---|---|---|
| Eficiente | Domina en física; base del paradigma de Pearl | Fuerza → aceleración; intervención → efecto |
| Formal | Reaparece como “restricciones” (constraints) en Evo-Devo | Bauplan corporal; leyes de escala alométrica |
| Material | Resurge en debates sobre propiedades emergentes | ¿La materia organizada “produce” conciencia? (§2.5) |
| Final | Transformada en función biológica y teleonomía | Selección natural; funcionalismo en filosofía de la mente |
Pearl y Woodward, al formalizar la causalidad como intervención, operan fundamentalmente en el registro de la causa eficiente. Pero su marco permite plantear con precisión cuándo una “restricción” (causa formal) o una “función” (causa final transformada) cuenta como causa genuina. Para estudiantes de Filosofía, este puente entre la tradición aristotélica y la ciencia contemporánea es conceptualmente indispensable (Cartwright, 2007; Woodward, 2003).
2.5.2 Causalidad lineal, circular y retroalimentación
La noción clásica de causalidad, fundamentada en el modelo mecanicista lineal (A causa B, que causa C…), resulta insuficiente para fenómenos en sistemas complejos. La causalidad lineal supone una relación unidireccional (causa → efecto), precedencia temporal, proporcionalidad y separabilidad (efectos aditivos de causas independientes). Funciona bien en mecánica clásica, experimentos controlados con variables aisladas y sistemas cerca del equilibrio.
La causalidad circular introduce lazos causales donde A influye en B y B retroalimenta a A. El ejemplo de la regulación de temperatura corporal lo ilustra: la temperatura alta desencadena sudoración, que provoca enfriamiento evaporativo, que reduce la temperatura. No hay un “primer” evento: el sistema es inherentemente circular (Capra, 1996).
La retroalimentación positiva amplifica desviaciones del estado inicial y conduce a crecimiento exponencial o colapso (reacciones nucleares en cadena, pánico financiero, fundición de hielo polar). La retroalimentación negativa amortigua desviaciones y estabiliza el sistema (termostatos, regulación hormonal, competencia en ecosistemas). En sistemas complejos, múltiples bucles de retroalimentación interactúan a diferentes escalas temporales; por ejemplo, en el sistema climático coexisten bucles rápidos (evaporación-precipitación, días), medios (ciclos glacial-interglacial, miles de años) y lentos (ciclo del carbono profundo, millones de años). Estos bucles pueden entrar en resonancia o conflicto, generando dinámicas difíciles de predecir (Kauffman, 1995; Waldrop, 1992).
Intervenciones puntuales en sistemas con múltiples bucles pueden tener efectos contraintuitivos (la solución empeora el problema), consecuencias retardadas (efectos aparecen décadas después) o compensaciones laterales (mejora en una variable, deterioro en otra). Esto fundamenta la necesidad de modelización sistémica antes de intervenciones en sistemas complejos — una lección relevante para política climática, sanitaria y económica.
2.5.3 Inferencia causal: Pearl, Woodward y el do-calculus
Judea Pearl y colaboradores han desarrollado herramientas matemáticas para la inferencia causal en sistemas complejos que representan una auténtica revolución conceptual. La distinción central es entre correlación y causalidad, formalizada así:
- P(Y|X): probabilidad de Y dado que observamos X → correlación observacional
- P(Y|do(X)): probabilidad de Y si intervenimos haciendo X → efecto causal
Esta distinción, aparentemente simple, tiene consecuencias profundas. La correlación entre ventas de helados y ahogamientos no implica que los helados causen ahogamientos: ambas variables están causadas por una tercera (temperatura). Solo un análisis causal —intervenir sobre las ventas de helados y observar si cambian los ahogamientos— distingue causalidad genuina de correlación espuria (Pearl & Mackenzie, 2018).
Pearl organiza la inferencia causal en tres escalas de complejidad creciente:
| Escala | Pregunta tipo | Capacidad |
|---|---|---|
| 1. Asociación | ¿Qué ocurre si observo X? | Correlación, predicción pasiva |
| 2. Intervención | ¿Qué ocurre si hago X? | Inferencia causal, diseño de políticas |
| 3. Contrafáctico | ¿Qué habría ocurrido si hubiera hecho X? | Explicación, responsabilidad, aprendizaje |
James Woodward (2003, 2021) ofrece una teoría filosófica complementaria: la teoría intervencionista de la causalidad, según la cual “X causa Y” significa que intervenir sobre X cambiaría Y, manteniendo constante todo lo demás. Esta formulación es filosóficamente más accesible que el formalismo de Pearl y ha sido enormemente influyente en filosofía de la ciencia, epidemiología y ciencias sociales.
El debate sobre causalidad adquiere especial urgencia en el contexto de la inteligencia artificial. Los modelos de aprendizaje profundo —incluyendo los grandes modelos de lenguaje (LLMs)— operan mayoritariamente en la primera escala de Pearl: detectan correlaciones estadísticas en datos masivos, pero no acceden a intervención ni a razonamiento contrafáctico genuino. Pearl ha argumentado insistentemente que esta limitación es estructural, no superable con más datos o más parámetros: sin un modelo causal del mundo, una red neuronal no puede distinguir correlación de causalidad, ni predecir los efectos de intervenciones que no ha observado (Pearl & Mackenzie, 2018; Schölkopf et al., 2021).
Este diagnóstico tiene implicaciones epistemológicas directas: si las herramientas de IA más potentes disponibles en 2026 operan en la escala de la asociación, entonces la “revolución de los datos” no sustituye sino que requiere marcos causales explícitos para generar conocimiento genuino. La complementariedad entre aprendizaje automático (asociación) e inferencia causal (intervención, contrafácticos) es uno de los programas de investigación más activos en IA contemporánea (Mitchell, 2019; Schölkopf et al., 2021).
La medicina de precisión combina redes causales (genes → proteínas → fenotipos → enfermedades), inferencia bayesiana (actualización probabilística con nuevos datos) y análisis de intervenciones (simulación de efectos de tratamientos). En la evaluación de políticas públicas, los ensayos controlados aleatorizados (ECAs) operan como intervenciones en el sentido de Pearl: al asignar aleatoriamente un tratamiento, eliminan las variables confusoras y permiten identificar efectos causales genuinos. Cartwright (2007) ha analizado con rigor filosófico los límites de esta aproximación: la evidencia causal obtenida en un contexto experimental puede no transferirse a otros contextos sin un análisis de los mecanismos causales subyacentes.
Un modelo de IA predice con un 95% de acierto que un paciente desarrollará diabetes, basándose en correlaciones con miles de variables. ¿Ese modelo entiende las causas de la diabetes? ¿En qué escala de Pearl opera? ¿Qué necesitaría para pasar a la escala de la intervención?
2.6 Emergencia e irreductibilidad
El concepto de emergencia es central en filosofía de la ciencia contemporánea, particularmente en debates sobre reduccionismo, explicación científica y unidad de la ciencia. Esta sección examina con mayor profundidad las propiedades emergentes, los niveles de organización, la superveniencia, el argumento de la exclusión causal y las implicaciones epistemológicas.
2.6.1 Propiedades emergentes y niveles de organización
La naturaleza se organiza en niveles jerárquicos — física fundamental → química → bioquímica → biología celular → fisiología → neurociencia → psicología → ciencias sociales — pero esta jerarquía no es estrictamente reduccionista. Cada nivel exhibe propiedades emergentes (características del todo no presentes en las partes), regularidades propias (generalizaciones no derivables trivialmente del nivel inferior) y conceptos específicos (vocabulario teórico indispensable) (Anderson, 1972; Humphreys, 2016).
| Nivel | Propiedad emergente | No presente en nivel inferior |
|---|---|---|
| Molecular | Quiralidad | Átomos individuales (aquirales) |
| Termodinámico | Temperatura, presión | Partículas individuales (solo tienen velocidad) |
| Biológico | Metabolismo | Moléculas orgánicas sueltas |
| Neuronal | Consciencia | Neuronas individuales |
| Social | Instituciones, mercados | Individuos aislados |
En cada caso, la propiedad emergente requiere un patrón de organización específico del nivel superior.
Emergencia composicional (sincrónica) vs. emergencia diacrónica. La distinción es filosóficamente crucial. La emergencia composicional se refiere a propiedades del todo que resultan de la organización de las partes en un instante dado: la liquidez del agua, la temperatura de un gas, la conciencia (según ciertos modelos). La emergencia diacrónica se refiere a propiedades que emergen en el tiempo mediante procesos históricos: el lenguaje humano, las instituciones jurídicas, la biodiversidad actual. La emergencia diacrónica es especialmente relevante en biología evolutiva y ciencias sociales, donde la historia es constitutiva: no se puede entender el estado presente sin reconstruir el proceso que lo produjo (Bedau, 1997; Humphreys, 2016).
Emergencia débil (Bedau): propiedades derivables en principio a partir de las leyes fundamentales, pero solo mediante simulación paso a paso (no hay “atajo” analítico). La mayoría de fenómenos en física y química exhiben emergencia débil. Ejemplo: los patrones en el Juego de la Vida de Conway, o el comportamiento colectivo de una colonia de hormigas que emerge de reglas locales simples (cada hormiga responde a señales químicas locales, pero el colectivo resuelve problemas complejos de asignación de tareas, búsqueda de alimento y construcción).
Emergencia fuerte (Chalmers): propiedades no deducibles incluso con información completa de las partes; requieren nuevos principios causales en el nivel emergente. El caso más debatido es la consciencia fenomenológica (qualia): ¿por qué ciertos procesos neuronales van acompañados de experiencia subjetiva? (Chalmers, 2006).
La existencia de emergencia fuerte es debatida filosóficamente. La mayoría de los filósofos de la ciencia aceptan la emergencia débil como ubicua, pero discrepan sobre si hay casos genuinos de emergencia fuerte.
2.6.2 Superveniencia, exclusión causal y reduccionismo
Superveniencia es la relación de dependencia entre niveles: no puede haber diferencia en el nivel superior (mental, biológico) sin diferencia en el nivel inferior (físico, químico). Kim (2005) distingue tres grados: superveniencia débil (dentro de un mundo posible), fuerte (a través de mundos posibles) y global (el todo superviene sobre el arreglo de todas las partes).
Crucialmente, superveniencia no implica reducción. La temperatura superviene sobre la energía cinética molecular y es reducible a ella. Pero algunos argumentan que la consciencia superviene sobre estados cerebrales sin ser explicativamente reducible a ellos (Chalmers, 2006).
El argumento más influyente contra la autonomía causal de las propiedades emergentes es el de exclusión causal de Kim (2005):
- Toda propiedad mental (M) superviene sobre una propiedad física (P).
- P es causalmente suficiente para los efectos de M.
- Si P es causalmente suficiente, M es causalmente redundante.
- Por tanto, M no tiene poderes causales propios → epifenomenalismo (las propiedades mentales existen pero no causan nada).
Kim concluye que, o bien aceptamos el reduccionismo (M es P bajo otra descripción), o bien admitimos que M es causalmente inerte. Este argumento ha dominado la filosofía de la mente durante tres décadas y es esencial para entender por qué la emergencia es filosóficamente difícil, no solo un concepto técnico.
Respuestas principales:
- Compatibilismo de niveles (List & Menzies): la causalidad en diferentes niveles de descripción no compite; la causalidad macro puede ser genuina sin sobredeterminar la micro, porque opera sobre propiedades diferentes (List & Menzies, 2009).
- Emergentismo fuerte (O’Connor, Chalmers): existen genuinos poderes causales nuevos en el nivel emergente, no derivables del nivel inferior.
- Información integrada (Tononi, IIT): la consciencia es una propiedad intrínseca de sistemas que integran información; la causalidad mental es tan “real” como la física porque opera sobre la estructura informacional del sistema.
- Realismo estructural óntico (Ladyman): la distinción “niveles” es un artefacto de nuestra representación; lo fundamental es la estructura relacional, no los “objetos” en un nivel u otro (Ladyman & Ross, 2007).
Los tipos de reduccionismo difieren en sus pretensiones y límites:
| Tipo | Tesis | Ejemplo exitoso | Límites |
|---|---|---|---|
| Ontológico | Todo está hecho de partículas | Química → Física cuántica | Generalmente aceptado |
| Metodológico | Estudiar partes para entender todo | Biología molecular | Insuficiente para sistemas complejos |
| Teórico | Teorías superiores derivables de inferiores | Termodinámica ← Mec. estadística | Raramente logrado en práctica |
| Explicativo | Solo explicaciones en nivel fundamental | — | Controvertido; rechazado por Anderson |
En su influyente artículo “More Is Different” (1972), el Premio Nobel Philip Anderson argumenta: la capacidad de reducir todo a leyes fundamentales no implica la capacidad de reconstruir el universo a partir de esas leyes. Cada nivel de complejidad requiere nuevos principios organizativos que, aunque compatibles con la física fundamental, no son predecibles a partir de ella. Esto no niega el fisicalismo ontológico, pero rechaza categóricamente el reduccionismo explicativo (Anderson, 1972).
2.6.3 Implicaciones epistemológicas de la emergencia
La emergencia plantea varias consecuencias para la epistemología y la organización del conocimiento:
Pluralismo explicativo. Diferentes niveles requieren diferentes marcos explicativos. No hay una “teoría del todo” prácticamente útil para todos los fenómenos. La biología molecular no reemplaza la ecología evolutiva, aunque sean compatibles. List (2023) ha formalizado esta idea mostrando que la unidad de la ciencia puede mantenerse sin reduccionismo: las ciencias comparten compromisos metodológicos y ontológicos básicos (fisicalismo, falsabilidad, explicación causal) aunque operen con conceptos y leyes irreductibles entre sí.
Límites de la simulación. Incluso con leyes fundamentales conocidas, la simulación computacional puede ser intratable (complejidad computacional), sensible a imprecisiones numéricas (caos) o conceptualmente opaca (demasiados detalles sin poder explicativo).
Novedad ontológica. La historia del universo ha generado niveles de organización genuinamente nuevos: el universo temprano no contenía vida, consciencia ni instituciones sociales. La emergencia diacrónica implica que el cosmos es creativo, no meramente combinatorio (Kauffman, 2019).
Emergencia en ciencias sociales. Las “leyes” económicas, los mercados y las instituciones políticas son propiedades emergentes de interacciones individuales. ¿Son reducibles a psicología individual? El debate clásico entre la planificación centralizada (que presupone reducibilidad: si conocemos los agentes, podemos diseñar el sistema) y el orden espontáneo hayekiano (que asume emergencia irreductible) es un caso paradigmático de reduccionismo vs. emergencia en el ámbito social (Solé, 2022).
La superconductividad (resistencia eléctrica cero a bajas temperaturas) es un ejemplo de emergencia en física. Su fundamento microscópico son los pares de Cooper: electrones que se aparean cuánticamente y forman un condensado colectivo. La propiedad macroscópica emergente (resistencia exactamente cero) no es deducible trivialmente de la mecánica cuántica de electrones individuales: requirió una nueva teoría (BCS, 1957), nuevos conceptos (rotura espontánea de simetría gauge) y aproximaciones matemáticas sofisticadas. Una analogía accesible: es como si los electrones, en lugar de “chocar” unos con otros al moverse por un conductor (lo que genera resistencia), se organizaran en parejas coordinadas que fluyen sin obstáculo, como bailarines perfectamente sincronizados en una pista de baile abarrotada.
Este caso muestra que emergencia débil es suficiente para bloquear el reduccionismo explicativo práctico (Silberstein, 2012).
¿Es la consciencia una propiedad emergente “débil” (derivable en principio de la neurociencia) o “fuerte” (irreductible)? ¿Qué implicaciones tendría cada respuesta para la relación entre neurociencia y psicología, y para la posibilidad de una IA consciente?
2.7 Recapitulación: respuestas a la pregunta-guía
Volvamos a la pregunta que abrió el capítulo: ¿qué queda del ideal clásico de conocimiento científico tras las revoluciones de la física del siglo XX?
El recorrido realizado permite cuatro respuestas convergentes:
El determinismo ha sido reformulado, no simplemente abandonado. La mecánica cuántica introduce indeterminismo ontológico (confirmado por los experimentos de Bell); el caos determinista desacopla determinismo de predictibilidad; la irreducibilidad computacional impone límites a la predicción incluso en sistemas deterministas. Pero las leyes estadísticas siguen siendo leyes, y la ciencia sigue prediciendo — solo que dentro de horizontes y con incertidumbres que ahora comprendemos mucho mejor.
El reduccionismo metodológico sigue siendo fértil, pero el reduccionismo explicativo es insostenible. Anderson, Kim, Humphreys y otros han mostrado que cada nivel de organización requiere conceptos y principios propios. El fisicalismo ontológico (todo está hecho de partículas) es compatible con el pluralismo explicativo (la biología no se reduce a física).
La causalidad es más compleja de lo que el modelo mecanicista sugería. Retroalimentación, circularidad, sensibilidad a condiciones iniciales, causalidad probabilística y emergencia de niveles causales exigen herramientas conceptuales nuevas — de Pearl a Woodward, de las cuatro causas aristotélicas transformadas a los debates sobre exclusión causal.
La ciencia del siglo XXI es necesariamente interdisciplinar. Si los fenómenos complejos no se reducen a un solo nivel, y si la emergencia genera novedad genuina, entonces la división del trabajo cognitivo entre disciplinas es más que una conveniencia administrativa: es una necesidad epistemológica.
Estos desarrollos conectan directamente con los capítulos siguientes:
- Capítulo 3 (Biología y evolución): Emergencia en sistemas vivos, auto-organización, teleonomía
- Capítulo 4 (Revolución cognitiva): Emergencia de la mente, cognición como sistema complejo
- Capítulo 6 (Realismo vs. relativismo): Objetividad del conocimiento científico post-Bell
- Capítulo 8 (Dimensión social): División del trabajo cognitivo, comunidades epistémicas
2.8 Textos de referencia
Esta sección proporciona guías de lectura organizadas por temática, con indicación de nivel y actualidad.
2.8.1 Física fundamental y filosofía de la física
Prigogine, I. & Stengers, I. (1984). Order Out of Chaos. Bantam Books. [Estructuras disipativas e irreversibilidad; texto fundacional]
Haroche, S. & Raimond, J-M. (2006). Exploring the Quantum. Oxford UP. [Experimentos fundamentales en óptica cuántica; Nobel 2012]
Carnap, R. (1966). Philosophical Foundations of Physics. Basic Books. [Empirismo lógico y filosofía de la física; clásico del positivismo]
Maudlin, T. (2011). Quantum Non-Locality and Relativity. 3ª ed. Wiley-Blackwell. [Análisis filosófico definitivo del teorema de Bell y la no-localidad]
2.8.2 Complejidad, emergencia y sistemas
von Bertalanffy, L. (1968). General System Theory. Braziller. [Fundador de la teoría general de sistemas]
Anderson, P. W. (1972). “More Is Different”. Science 177(4047): 393-396. [Artículo seminal sobre emergencia]
Gleick, J. (1987). Chaos: Making a New Science. Viking. [Divulgación clásica de teoría del caos]
Waldrop, M. M. (1992). Complexity. Simon & Schuster. [Historia del Instituto Santa Fe]
2.8.3 Causalidad y explicación científica
Bunge, M. (1959). Causality. Harvard UP. [Análisis exhaustivo del principio causal]
Hempel, C. G. (1965). Aspects of Scientific Explanation. Free Press. [Modelo nomológico-deductivo]
Salmon, W. (1984). Scientific Explanation and the Causal Structure of the World. Princeton UP. [Teoría causal de la explicación]
2.8.4 Emergencia y reduccionismo
Bedau, M. A. & Humphreys, P. (eds.) (2008). Emergence: Contemporary Readings. MIT Press. [Colección de artículos clave]
Silberstein, M. (2012). “Emergence, Reduction, and Supervenience”. En Oxford Handbook of Philosophy of Science. Oxford UP.
Saatsi, J. (ed.) (2018). Routledge Handbook of Scientific Realism. Routledge.
2.8.5 Obras de divulgación técnicamente solventes
Capra, F. & Luisi, P. L. (2014). The Systems View of Life. Cambridge UP. [Visión sistémica unificadora]
Pinker, S. (2018). Enlightenment Now. Viking. [Defensa del progreso científico-racional]
Pinker, S. (2021). Rationality. Viking. [Importancia del pensamiento racional]
Rovelli, C. (2021). Helgoland. Riverhead Books. [Interpretación relacional de la cuántica; accesible y filosóficamente ambicioso]
Ismael, J. (2016). How Physics Makes Us Free. Oxford UP. [Indeterminación cuántica y agencia; puente física-filosofía de la mente]