Jun 3 2012
987 lecturas

AmbienteCiencia y TecnologíaCultura

La causa final

Después de que la teoría de la relatividad anula categorías físicas como el espacio y el tiempo absolutos, que son el de patrón de medida a todos los fenómenos físicos, y después de que una nueva generación de científicos pone en cuestión la relación exacta causa efecto, mediante el principio de indeterminación, parece que hasta los elementos más inconmovibles de la matemática y la física clásica han perdido valor.| JOSÉ RAMÓN SAN MIGUEL HEVIA.*

 

Por eso sorprende que en la segunda mitad del siglo XX reaparezca y se imponga la noción más extravagante y criticada de la historia de la filosofía, concretamente la idea de causa final, que modifica y hasta invierte los principios sobre  los que se funda la ciencia.

 

Los hombres del siglo XVII han conseguido, primero de todo controlar y medir a la naturaleza, y en un segundo momento –gracias al descubrimiento de la noción de fuerza y al correspondiente empleo de las máquinas– ponerla a trabajar. Pero a cambio de eso se han visto forzados a limitar su horizonte intelectual pues la ciencia física construida por ellos utiliza un modelo mecánico y explica de
acuerdo con él todos los acontecimientos naturales, por muy complejos que parezcan.

 

Todos los científicos complementan este modelo con el principio que establece una conexión lineal e irreversible entre los eventos del mundo físico. La causa opera en una sola dirección, y por supuesto es independiente de sus efectos, que únicamente pueden prolongar hacia adelante hasta el infinito la seriación de todos los fenómenos futuros. En cambio que un efecto actúe hacia atrás, modificando y controlando el mismo principio que lo ha producido es un pensamiento tan extravagante y contradictorio que nadie le dedica la menor atención.

 

El más severo crítico del conocimiento científico, David Hume, exige que las ciencias reales se funden sobre la conexión de causalidad, entendida como una sucesión constante entre dos impresiones. Esta relación no es desde luego simétrica, porque el término que hace las veces de causa es anterior al que le acompaña constantemente, y produce una convicción creciente en la posterior aparición de ese efecto. En todo caso la prioridad causal es algo tan necesario y evidente en cualquier enunciado sobre el mundo, como la contigüidad de los fenómenos y la constancia de su aparición conjunta.

 

Es cierto que en Glasgow –a muy pocos kilómetros de la ciudad donde vive y piensa Hume– su amigo Watt perfecciona la máquina de vapor con un aparato, el governor, capaz de controlar la misma velocidad que lo ha puesto en movimiento, pero ni el filósofo ni los científicos que después de él y durante más de dos siglos desarrollan la física alcanzando logros técnicos increíbles, son capaces de ver las posibilidades teóricas que ofrece ese artificio, aparentemente banal.

 

Mucho más grave es lo que sucede en la misma ciudad de Edimburgo, donde Adam Smith —que mantiene con Hume una amistad profunda y una admiración mutua— funda una ciencia, la economía política, donde demuestra que los desarrollos de la producción actúan hacia atrás, controlando y corrigiendo periódicamente los desajustes del mercado. Esta vez no se trata de un cachirulo insignificante, sino de un sistema científico entero, desarrollado racionalmente hasta sus últimas consecuencias y con tanta maestría como belleza. A pesar de todo, nadie cae en la cuenta de «la mano invisible» que regula el comercio, ni mucho menos generaliza esa idea a otras zonas de la realidad.

 

Habrá que esperar al año 1948 para que un científico americano, Wiener, construya una ciencia nueva no sólo por su objeto, sino por el modelo lógico y los principios que la conforman. Su propio nombre cibernética hace referencia –no a la acción ciega y las leyes de un mecanismo natural– sino a la habilidad de un piloto, que gobierna el navío de acuerdo con la información recibida. La obra de Wiener prolonga una aislada memoria publicada por Maxwell en 1868 y generalizando las ideas del gran físico inglés, da paso a la construcción teórica de una serie de aparatos que se autorregulan y controlan de acuerdo con una nueva conexión causal.

 

En la física clásica la acción de la causa sobre su efecto es irreversible y en este preciso sentido se puede decir que los fenómenos
de la naturaleza siguen un proceso abierto y unidireccional. En cambio según Wiener es posible un circuito cerrado, donde el efecto reactúe hacia atrás, interrumpiendo, controlando y en general modificando su misma causa. Diseñar primero la estructura de la acción en círculo y construir los artificios capaces de realizar ese milagro será la primera tarea de la cibernética.

 

En principio un motor genera, gracias a una determinada cantidad de energía, trasformaciones en la velocidad, temperatura, intensidad de la corriente eléctrica o cualquier otra entidad física. Una calefacción por ejemplo distribuye el calor de forma homogénea a lo largo y ancho de un gran edificio de muchas plantas y pisos, siguiendo un proceso en línea recta, del todo semejante a los de la ciencia clásica. Sin embargo, una parte mínima, pero en todo caso finita y cuantificable de esta energía, se gasta en la tarea en apariencia insignificante de definir la temperatura sobre un termómetro incorporado al mecanismo central.

 

El indicador exige una energía de retorno muy débil en comparación con la corriente de alimentación directa, pero en cambio proporciona una información exacta para modificar cualquier fenómeno físico. Con los datos proporcionados –en este caso por el termómetro– es posible controlar manualmente el aparato, estabilizando su aporte de calor. Es posible también sustituir en un segundo momento la intervención del hombre, por un mecanismo de control que haga sus veces al poner en conexión el indicador con el mando de regulación del motor.

 

La nueva ciencia cibernética y su correspondiente tecnología se basan en dos principios que explican al propio tiempo su éxito fulminante y la aplicación de sus modelos a conocimientos hasta entonces poco menos que malditos. En primer lugar el governor, el termostato o los infinitos artificios que siguen su mismo diseño se aprovechan de que el proceso de retroacción –”feedback”– no agotani mucho menos la cantidad de corriente de alimentación directa. Esta plusvalía energética permite multiplicar la cantidad y calidad del trabajo de la máquina, dotándola de un sistema interno de regulación y poniendo al alcance del hombre objetivos casi inimaginables.

 

Según el otro principio –complementario del primero– esa información que retrocede en círculo hasta el motor inicial del que surge toda la corriente del sistema, tiene ella misma un soporte material y sólo es posible a cambio de una disminución de energía, ciertamente muy pequeña pero cuantificable. Esta equivalencia entre información y energía negativa permite, entre otras cosas,
despejar el misterio de la formación del orden en el universo en general y en los seres vivos en particular, sin caer en contradicción con los principios más venerables de la física clásica.

 

El primer artificio de control automático que llama la atención de los teóricos de la ciencia y de la técnica es el governor o regulador de la máquina de vapor de Watt. Es puramente mecánico y sirve para estabilizar la velocidad de rotación en función de la fuerza centrífuga que es su efecto, separando en más o en menos del eje un juego de dos bolas y provocando así el deslizamiento de un manguito y su acción sobre un freno. El termostato, mucho más moderno, gobierna la temperatura en vez de la velocidad y por su carácter doméstico y el fácil entendimiento de sus elementos de indicación y control, es el mejor modelo de la nueva ingeniería. Los reguladores eléctricos cumplen la doble e importantísima tarea de mantener constante uno de los factores de la corriente y de dominar a través de ella cualquier otro fenómeno mecánico o físico.

 

La cibernética no se aparta de esa idea central de un circuito de retorno o feed back, pero construye mecanismos cada vez más complejos, que imitan artificialmente el fenómeno de la vida y parecen dotados de finalidad y hasta de inteligencia. Y lo que es quizá más importante, crea un nuevo espacio teórico, dentro del cual la biología puede desarrollarse cómodamente, sin tropezar con el obstáculo invencible de una causalidad física lineal e irreversible. El funcionamiento de un organismo vivo es precisamente el más perfecto modelo de autorregulación.

La biología

Las hipótesis combinadas de Darwin y de los partidarios del mutacionismo, explican la trasformación de una especie viviente en otra distinta gracias a un cambio azaroso de su plasma germinal y a la posterior selección de los productos biológicamente viables de estos errores de imprenta. El evolucionismo, del todo confirmado a través de descubrimientos y experiencias cada vez más frecuentes,
significa dos cosas aparentemente contradictorias.

 

En primer lugar el universo entero de los vegetales y los animales está sometido durante cientos de miles de años y miles de millones
de procesos reproductivos a una constante trasformación, y en este sentido se dice que todo es cambio en la biosfera. Pero esa evolución sólo es posible a condición de que la escala entera de estos seres, desde el protozoario hasta el hombre, conserve idéntica arquitectura biológica y esté compuesta de las mismas veinte piezas fundamentales y del ácido nucleico que sirve de imprenta para repetir los caracteres de cada especie. Precisamente esta identidad básica de su objeto hace que la biología deje de ser una pura clasificación taxonómica de los seres vivos y adquiera el carácter de una ciencia unitaria.

 

Lo primero que tiene que hacer esa nueva ciencia es una definición empírica y operacional de sus conceptos clave, empezando por el primero y el más problemático. Efectivamente, la aparición de la vida, su reproducción y trasformación en formas cada vez másm organizadas, parecen contradecir el segundo principio de la termodinámica según el cual un sistema cerrado –tal como el universo– sólo puede evolucionar en el sentido de una degradación continua del orden.

Otra vez es Maxwell quien proporciona el primer modelo –todavía mitológico– de esta entropía negativa para el caso más simple, la separación amistosa entre dos tipos de moléculas, las calientes y las frías. Según su experimento imaginario un “demonio”, colocado en el orificio de comunicación de dos recintos llenos de un gas cualquiera, puede por su sola potencia cognitiva discernir y elegir cada molécula individual, dando paso en sentidos opuestos a las de alta y baja energía. El resultado es la aparición del orden más elemental, ya que la temperatura de los dos recintos –inicialmente igual– se polariza.

 

Los científicos posteriores han solucionado esa paradoja, según la cual el segundo principio se invierte y el desorden inicial desemboca en un estadio mínimamente organizado. Efectivamente para conocer el carácter de cada molécula y decidir qué camino debe tomar es preciso medir su velocidad. Ahora bien, toda medición, es decir, toda adquisición de información –y por consiguiente de orden– exige un gasto de energía equivalente, que compensa y cuantifica la entropía negativa del sistema.

 

Los artificios creados por la cibernética son un modelo mecánico mucho más perfecto y real del complejo fenómeno de la vida. En todos ellos el circuito de retorno sirve para controlar el motor que alimenta directamente a un fenómeno. La información necesaria para poner orden en todo el mecanismo –el regulador, el termostato– se consigue empleando una cantidad de energía muy inferior a la corriente total, pero suficiente para respetar –y utilizar en beneficio propio en el caso de los seres vivos– el segundo principio de
la termodinámica.

 

Pero además la otra propiedad que define al ser vivo frente a las realidades no orgánicas sólo se puede explicar gracias a esta misma
causalidad en circuito cerrado. Es el mecanismo de la reproducción por el cual los individuos de cada especie trasmiten a sus descendientes de forma reiterativa y monótona la estructura que desde siempre ya poseen. Se trata del sistema más perfecto de regulación y control, porque gracias a él se mantiene una invariancia fundamental en entidades infinitamente más complejas que la velocidad, la temperatura o cualquier otro fenómeno físico elemental.

 

Ya en el año 1936 el matemático inglés Turing, un pionero de la cibernética, construye unos robots imaginarios, que a partir de la información proporcionada por una cinta, pueden transcribirla y construir gracias a ella otras máquinas semejantes. Es el primer modelo mecánico de la reproducción biológica, pero su funcionamiento sólo es idealmente posible a cambio de un consumo de energía, que en un principio pasa desapercibido por su cantidad mínima y por la magnitud de la hazaña conseguida.

 

Después de la segunda gran guerra y sobre todo a partir de los años 50 una brillante promoción de biólogos descubre por fin un mecanismo de imprenta, tan sencillo en esencia como rico en efectos, que explica el carácter reiterativo de la vida. Los ácidos nucleicos están compuestos por cuatro nucleótidos que difieren entre sí por la estructura de sus constituyentes, la adenina (A), guanina (G), citosina (C) y timina (T). Cada una de estas bases tiene un área complementaria de una y sólo de una de de las otras tres, y por eso puede «conocerla» y «elegirla», formando con ella una asociación no covalente a cambio de un débil consumo de energía.

 

En consecuencia el ADN está formado por una cadena, no limitada en su longitud, de pares complementarios de nucleótidos (A =3D T, C =3D G, G =3D C, T =3D A) La duplicación de este original en copias iguales sigue un proceso muy sencillo que empieza por la separación en las fibras que lo componen (A, C, G, T) (T, G, C, A). A su vez cada una de estas series simples está destinada, por la
propia área de sus componentes, a emparejarse con una nueva serie única y también complementaria, con lo cual se reconstruye por partida doble la molécula madre.

 

La formación de los veinte aminoácidos, que componen la arquitectura de cualquier ser vivo es mucho más difícil de explicar, pero en todo caso obedece al principio de equivalencia entre la adquisición de información y el consumo de energía, respetando y utilizando al máximo el segundo principio de la termodinámica. En presencia de una cadena no limitada de ácidos nucleicos, unas enzimas especiales “conocen” por una parte sucesivas moléculas compuestas por tres nucleótidos y por otra una cadena de aminoácidos, cada uno de los cuales se corresponde con un triplete.

 

Esta información, responsable al mismo tiempo de la invariancia y de la individualidad de la carga hereditaria, recibe el nombre casi mágico de código genético. Pero esta presentación gramatical del mecanismo que organiza los componentes básicos del ser vivo no puede hacer olvidar el soporte material sobre el que está montado. La aparición y la sintaxis de los aminoácidos sólo es posible a cambio de que las enzimas ejerzan sus funciones de conocimiento y de elección, consumiendo –a cambio del orden– energía.

 

La tercera propiedad que distingue a los organismos de los seres inertes es la combinación funcional de todas sus partes en persecución de una actividad propia de cada individuo y cada especie. Aristóteles –uno de los biólogos más grandes de todos los tiempos– es quien rimero se arriesga a utilizar el término de «causa final», para designar una entidad contradictoria, que es al
mismo tiempo principio y término del mismo movimiento.

 

La filosofía moderna en combinación con la física matemática, critica duramente esta noción, pues exige que en todo caso la causa sea prioritaria con relación a su efecto. Desde entonces la «entelequia» pasa a ser primero una hipótesis sin ninguna base experimental, y después una quimera, que sólo es posible en un mundo mágico, bien distinto del que dibujan con rigor creciente las ciencias positivas.

 

El siglo XX desde sus primeros años somete a las más venerables nociones de la física –el espacio, el tiempo, la determinación causal– a una nueva y severísima condición. Sólo tendrán sentido para la ciencia cuando sea posible definir, al menos imaginariamente, las operaciones que las hacen presentes. La teoría de la relatividad y el principio de indeterminación son las inesperadas consecuencias de esta exigencia. En principio parece que una idea tan errática como la de causa final tendrá todavía peor fortuna que sus hermanas mayores, y casi con toda seguridad se desvanecerá por completo.

 

Es todo lo contrario lo que sucede. Por primera vez y gracias a los ingenios cibernéticos se consiguen definir las operaciones por las que un efecto reactúa sobre su propia causa controlándola. Este mecanismo de autorregulación es el modelo mecánico de un ser vivo, dotado de una actividad propia, con dirección y ritmo determinados. Lo único que las leyes físicas exigen es la correspondencia
entre la información que controla las máquinas o los organismos y la pérdida de energía del sistema total.

 

Pero no sólo cada uno de los organismos es una combinación funcional que mantiene una perfecta organización entre las piezas componentes y su actividad de conjunto. Toda la biosfera reitera a una escala mucho mayor ese equilibrio, a través de la acción y reacción mutua de los seres vivos integrados en cada sistema. Los caracteres de la biología –conservación y multiplicación del orden,
reproducción de las condiciones de vida del medio, causalidad final, o más exactamente control por retroacción– van a aparecer corregidas y aumentadas en la ecología.

 

Es una ciencia que, a pesar de su recientísimo nacimiento ha conseguido fijar un nuevo objeto de estudio, la biosfera, es decir el conjunto orgánicamente trabado de todos los seres vivos. Por otra parte es dueña de los nuevos principios del conocimiento y los desarrolla en leyes empíricamente contrastables, que dan razón del funcionamiento del mundo entero de la vida y de cada uno de los variados subsistemas que lo forman. Por supuesto que la ecología es un saber científico, y se distingue netamente del ecologismo, que hace referencia a una determinada forma de comportarse ante la naturaleza.

 

La ecología

 

Los componentes primarios de la biosfera son desde luego las plantas verdes, mediante una pantalla de captación de la luz solar – el cloroplasto cuyas unidades son asimilables a un elemento semiconductor, capaz de trasladar electrones desde un compuesto que se oxida a otro que se reduce. El modelo más simple de este proceso electroquímico es la formación de azúcares a partir de la descomposición del agua y de la liberación del oxígeno en el gas carbónico. Pero la producción de la vida está desde el primer momento rigurosamente controlada por la misma estructura de esta fábrica inicial.

 

Los numerosos talleres en que se divide el cloroplasto, se componen de aproximadamente trescientas moléculas de clorofila, dispuestas en forma de antena alrededor de un único elemento de conversión. Este excepcional protagonista de la función de fotosíntesis sólo puede usar una parte de la energía luminosa, justamente la mínima para asegurar los fundamentos de la biosfera, evitando la tentación de una superproducción sin límite final. Cada unidad de producción se puede asimilar, según esto, a un embudo o una copa que admite únicamente una cantidad de líquido proporcional a su diámetro, y deja que rebose y se pierda el resto.

 

La vegetación terrestre desarrolla también este doble y complementario proceso de crecimiento y control, siguiendo un eje vertical
definido por la luz y la gravedad. Las ramas superiores del árbol reciben directamente el sol, hacen sombra a todas las demás y entran así en ventajosa competencia con ellas. En consecuencia la planta, siempre en busca de luz, asciende, al mismo tiempo que se alimenta de los productos químicos y del agua de la tierra mediante un sistema de fontanería hecho de troncos macizos y de raíces
extendidas. Este proceso tiende a autocontrolarse y es un ejemplo concreto y muy simple del principio de la acción mutua del efecto y la causa. Efectivamente, a medida que aumenta la altura del árbol, el trasporte de alimento desde su base se alarga y se hace más lento hasta quedar en el mínimo indispensable para mantener intacto su ciclo vital.

 

Los productores secundarios de vida están integrados en un ecosistema y una red trófica infinitamente más complicada, que empieza con los animales vegetarianos, sigue con los que se alimentan de una botín herbívoro, y se prolonga ad infinitum con los cazadores de otros carnívoros. El esquema central, que por cierto proporciona un nuevo modelo de autocontrol por feed back está formado por la
pareja depredador-presa. Pero la relación entre el parásito o el simbionte y el animal que los hospeda de manera más o menos gratuita y conflictiva es semejante y en cierta forma isomorfa a este proceso ecológico fundamental.

 

En principio la pareja depredador-presa se comporta como un oscilador, que reitera su movimiento entre dos extremos, actuando alternativamente en una doble dirección, gracias a un mecanismo de acción mutua. En un territorio bien delimitado, la especie que hace las veces de presa se reproduce, adelantándose a la de sus posibles cazadores y alcanzando un número máximo. Cuando a su vez aumenta la población de los depredadores hasta ser excesiva, primero frenan y después hacen decrecer hasta un mínimo a sus víctimas.

 

En un tercer tiempo la falta de alimento reactúa en circuito sobre la especie que tiene la iniciativa controlando y limitando su número. De esta forma la presa puede otra vez recomponer y maximizar su población, recomenzando el proceso y repitiéndolo indefinidamente.

 

Este esquema se complica con la aparición de animales que viven alrededor del drama central, y que necesariamente siguen su doble y alternativa oscilación. Las especies carroñeras cumplen con su oficio ecológico de empleados de la limpieza, aprovechando de paso los residuos de la presa no consumidos íntegramente. Lo mismo hacen los coprófagos con los excrementos, es decir con la parte del alimento no asimilada por el depredador. En cuanto a los parásitos y los simbiontes, se hospedan en el interior del organismo y comen a costa de él, unas veces gratuitamente, otras a cambio de un servicio de restaurante. Todo esta economía de servicios está montada sobre los ciclos alternantes y autorregulados de la producción secundaria.

 

En consecuencia los seres vivos no están aislados, sino que forman parte de un ecosistema, que integra a los más variados elementos, vegetales o animales, y mantiene su equilibrio gracias a la acción y reacción mutua de todos ellos. Esta organización jerárquica es en cierta forma isomorfa con la estructura de una sociedad humana, donde los agentes económicos se distribuyen según relaciones regulares de producción y número. Apurando la comparación se puede decir que los distintos oficios de la economía tienen su correspondencia en una noción central de la nueva ciencia, el nicho ecológico.

 

Cuando dos especies hacen oposiciones para ejercer un mismo oficio, es seguro que por el propio sistema de competencia natural una de ellas está llamada a desaparecer. En consecuencia un ecosistema se organiza de tal forma que al final hay una rigurosa correspondencia entre el conjunto de plazas libres y el de equipos candidatos. Esta selección da el premio a los mejores, y en tal
sentido favorece la evolución, pero al mismo tiempo mantiene intacta la red de relaciones entre todos los elementos que constituyen cada estructura.

 

Por supuesto que la lucha por la vida es mucho mayor entre los individuos de una misma especie que están en casi igualdad de condiciones, pero también en este caso existe por debajo de esa competencia una mutua alianza entre toda la población. Cualquiera que sea el vencedor, está comprometido a trasmitir a sus descendientes la herencia común, asegurando de esta forma su supervivencia. De uno u otra forma la biosfera funciona gracias a todos estos variados sistemas de autocontrol y de relación entre las poblaciones de seres vivos.

 

Historia y escatología

 

La misma noción de causa final obliga a revisar un conocimiento, que parecía destinado al olvido desde el final de la Edad Media y sobre todo desde la ilustración. Los teólogos protestantes alemanes, sobre todo Rudolf Bultman, siguen los pasos de Heidegger cuando considera la muerte como el horizonte irrebasable de la existencia. No se trata de que la muerte tenga la forma de ser de un hecho físico, ni de un acontecimiento al que asisto de buena o mala gana, ni siquiera de un puñado de alternativas, entre las que forzosamente hay que elegir una marginando todas las demás. Y como de ninguna forma se puede estar presente a ella, siempre es una realidad insuperable o si se quiere un futuro absoluto.

 

Así que para Bultman la muerte no es un más allá de la vida, con todas las complicaciones que esto conlleva. Sucede más bien todo lo contrario, porque la vivencia de este último horizonte actúa hacia atrás, en forma de causa final, sobre cada uno de los momentos de nuestro tiempo, suprimiendo su carácter de hecho consumado y afectándole de una forma de ser puramente posible. Es evidente que  cuando la existencia hace frente a ese plazo final, deja de ser algo terminado y se trasforma en una interminable espera, o usando un lenguaje más llano en un «más acá» de la muerte, que es así la causa final de la existencia entera y de cada uno de sus momentos.

Fuente: Nódulo.org.

X

Envíe a un amigo

Su nombre (requerido)

Su Email (requerido)

Amigo(requerido)

Mensaje

Añadir comentario