Lysenko – La teoría materialista de la evolución en la URSS (8)

Por Juan Manuel Olarieta Alberdi
[
Biografía resumida]
_______________________________________

La teoría de las mutaciones

A causa del “redescubrimiento” de Mendel, en la época de Morgan el darwinismo había sido eliminado tanto como el lamarckismo. Con ellos había desaparecido la evolución misma. No obstante, las evidencias eran lo suficientemente fuertes como para forzar a los mendelistas a intentar una conciliación de sus leyes con la evolución. Ese es el significado de la teoría de las mutaciones que, habitualmente, se presenta con la muletilla de “mutaciones al azar”, la esencia misma de la teoría sintética y el denominado neodarwinismo. Las mutaciones que explican la evolución eran saltos cualitativos, discontinuos, que hacían aparecer nuevas especies diferentes de las anteriores. La argumentación es de tipo genético: lo que mutaban eran los genes y, a su vez, estas mutaciones engendraban especies diversas. No existían cambios graduales y, desde luego, ningún papel desempeñaba el entorno ni nada ajeno a los genes mismos. El azar es el dios creador de los mendelistas. Las mutaciones se conciben como automutaciones génicas y, por supuesto, no explican nada, como tampoco nada habían explicado los cataclismos de Cuvier cien años antes, el diluvio universal de la Biblia o la desaparición de los dinosaurios a causa de meteoritos procedentes del espacio. La biodiversidad se explicaba por las mutaciones pero las mutaciones carecen de explicación porque en la teoría sintética hablar del azar es hablar de la nada. Ahí el azar desempeña el papel del nóumeno kantiano, lo incognoscible. No conozco ningún mendelista que, después de acudir al azar como pócima milagrosa para justificar toda clase de desaguisados, haya definido lo que entiende por tal (234). El azar es objeto de un debate secular a lo largo de la historia de la filosofía, pero el positivismo quiere -pero no puede- permanecer al margen del mismo, por lo que recurre a una noción vulgar del azar como casualidad o accidente. Ese recurso sistemático a una noción vulgar del azar es una deserción de la ciencia, la negación misma de la posibilidad de la experimentación científica, de la capacidad para reproducir una y otra vez los mismos fenómenos, en la naturaleza y en el laboratorio. Como ha escrito Israel, “no existen fenómenos aleatorios por naturaleza porque los fenómenos físicos se rigen por el principio de razón suficiente” (235). Añado por mi parte que lo mismo sucede en los fenómenos biológicos.

El abuso del azar, contrapartida paradógica del determinismo “ciego”, ha reconfigurado la teoría de la evolución para acoger sus tabúes favoritos: el finalismo, el progreso, el perfeccionamiento o la existencia de unos seres más desarrollados que otros. Se presta al antilamarckismo fácil y, por tanto, al tópico: en la evolución no se observa una línea ascendente en dirección a ninguna parte, sino la adaptación de cada ser vivo a sus condiciones locales. Este es otro de esos aspectos en los que los neodarwinistas son antidarwinistas. De nuevo la reconstrucción del pensamiento de Darwin sobre su propio pedestal revela muchas sorpresas. En primer lugar, las mutaciones al azar y el azar mismo son absolutamente ajenas a Darwin, quien dejó bien claro su punto de vista precisamente en el momento mismo de iniciar el capítulo de “El origen de las especies” titulado “Leyes de la variación”:

Hasta aquí he hablado a veces como si las variaciones -tan comunes y multiformes en los seres orgánicos en domesticidad, y en menor grado en los que viven en estado de naturaleza- fuesen debidas a la casualidad. Esto, por supuesto, es una expresión completamente incorrecta, pero sirve para reconocer llanamente nuestra ignorancia de la causa de cada variación particular. Algunos autores creen que producir diferencias individuales o variaciones ligeras de estructura es tan función del aparato reproductor como hacer al hijo semejante a sus padres. Pero el hecho de que las variaciones y monstruosidades ocurran con mucha más frecuencia en domesticidad que en estado natural, y de que se de mayor variabilidad en las especies de áreas extensas que en las de áreas restringidas, llevan a la conclusión de que la variabilidad está generalmente relacionada con las condiciones de vida a que ha estado sometida cada especie durante varias generaciones sucesivas (236).

En segundo lugar, el determinismo “ciego” es una expresión ajena a Darwin pero no a Lamarck, quien considera que la naturaleza tiene un poder limitado y ciego que no tiene intención, ni voluntad ni objetivos (237). De nuevo la historia de la biología aparece completamente distorsionada en este punto, como en tantos otros, por lo que retornamos a la polémica finalista, cuyas raíces reaparecen en la biología por varias esquinas distintas. Darwin es tan finalista (o tan poco finalista) como Lamarck, por lo menos. El británico se apoya en Von Baer y la teoría de la recapitulación (habitualmente atribuida a Haeckel, a pesar de que también tiene su origen en Lamarck) porque es quien “ha dado la mejor definición que se conoce del adelanto o progreso en la escala orgánica, diciendo que descansa sobre la importancia de la diferenciación y la especialización de las distintas partes de un ser”. El naturalista británico sostuvo, pues, que existe progreso en la evolución, que se realiza mediante “pasos lentos e ininterrumpidos”, que el progreso consiste en la complejidad (diferenciación y especialización) y, por fin, que “el punto culminante lo tiene el reino vertebrado en el hombre”. Eso no significa -continúa Darwin- que los seres más evolucionados reemplacen a los predecesores o que estén en mejores condiciones que éstos para sobrevivir: “Debemos guardarnos mucho de considerar a los miembros ahora existentes de un grupo de organismos inferiores como si fueran los representantes perfectos de sus antiguos predecesores” (238). Es cierto que, por influencia de Aristóteles, la evolución se interpretó no sólo de una manera direccional sino, además, en una dirección lineal, continuamente ascendente. Se puede exponer con mayor o mejor fortuna pero la propia palabra “evolución” se compadece muy mal con el ciego determinismo, sea quien sea el que lo propugne. Por ejemplo, Piaget no quiere hablar de finalidad pero utiliza la palabra “vección” para transmitir la misma idea direccional (239). Los seres vivos más simples son los más antiguos y los más complejos son los más recientes, hasta llegar al hombre, que es donde acaban todas las clasificaciones biológicas que se han hecho. Es cierto que este hecho ha favorecido determinadas interpretaciones místicas o simplmente antropomórficas, que se han dedicado a extrapolarlo, pero la interpretación contraria que lo niega ha redoblado sus energías. Las bacterias son seres de una única célula; los mamíferos se componen de billones de ellas. La evolución experimenta retrocesos y no es unidireccional pero empezó por las bacterias y acaba por los mamíferos (de momento).

Las ciencias están trufadas de conceptos de origen oscuro, especialmente teológico. Muchos de ellos fueron abandonados y otros, como el de “impulso” en física o “afinidad” en química, han logrado sobrevivir porque responden a fenómenos empíricos contrastados y han sido definidos de manera crecientemente precisa. Así, la noción de afinidad química también fue discutida porque parecía introducir en la naturaleza un componente antropomórfico: los elementos se atraían o repudiaban lo mismo que las personas. Se observaba el fenómeno pero no existía una expresión lo suficientemente precisa para explicar cabalmente las razones de ello, así que también se plantearon numerosas discusiones al respecto. Del mismo modo, la teoría sintética rechaza hoy infundadamente la noción se progreso y ese rechazo se extiene a toda la teoría de la evolución, incluida la paleontología, empleando caricaturas grotescas, ridiculizando a Lamarck de manera grosera, como en el caso de “La especie elegida”, el reciente éxito editorial de ventas de Arsuaga y Martínez, dos de los investigadores de Atapuerca.

El azar de los mutacionistas no sólo es ciego sino sordo: no se sabe por qué, cómo, dónde ni cuándo se producen. Además de no saber sus causas (si es que tiene causas) tampoco saben sus consecuencias (son imprevisibles). Lo único que pueden decir es que no tienen relación con el medio externo: son un “puro accidente químico” (240). La evolución marcha sin rumbo: “La evolución tiene su origen en el error” (241). Las mutaciones son errores de duplicación. Si no hubiera errores tampoco habría evolución, que es como un error en cadena. Esta forma extrema de determinismo es otra extrapolación ideológica cuya pretensión es la negación del progreso y el avance en la sociedad. La traslación de los fenómenos biológicos a la historia del hombre jugó una mala pasada a sus propios autores. No sólo demostraba que era posible mejorar y perfeccionar las lacras económicas y sociales sino que era inevitable que eso sucediera. Para seguir sosteniendo una imagen biológica de las sociedades humanas había que erradicar la idea de progreso en la evolución de las especies. Pero el hombre como especie biológica también ha evolucionado y sigue evolucionando, de modo que a partir de cualquiera de sus precedentes históricos, la especie actual es un desarrollo gigantesco, un verdadero salto adelante respecto de cualquier otro homínido. Esa evolución no sólo se aprecia en un sentido físico sino desde cualquiera de los ángulos que se pretenda adoptar, como en el caso del propio conocimiento, cuyo avance progresivo es espectacular. Por el contrario, el recurso al azar y al error de los mendelistas es buena prueba de la inconsistencia interna con que apareció la teoría de las mutaciones, ya que contrastaba poderosamente con otros dos componentes de la teoría sintética:

a) el determinismo estricto que se otorgó al plasma germinal en la configuración del cuerpo
b) la teoría de la copia perfecta (error de copia o de transcripción del ADN)

¿Por qué el mendelismo es determinista a unos efectos y recurre al azar a otros? Como suele suceder, no obtenemos ninguna clase de explicaciones. Es un completo absurdo científico que conduce al túnel del tiempo, al pensamiento medieval. Este retroceso tiene su origen en un error: el de considerar que en la naturaleza el error es aquel fenómeno que aparece con una frecuencia baja mientras que lo “normal”, la “copia perfecta”, emerge habitualmente. Ahora bien, si la evolución tiene su origen en el error, lo “normal” es precisamente el error y lo extraordinario sería conocer un caso en el cual la reproducción lograra obtener una “copia perfecta” del original, una criatura idéntica a su progenitor. Cualquier manual de pasatiempos matemáticos está repleto de ese tipo de paradojas acerca de lo que concebimos como “normal” o “excepcional”, lo que podemos extender a todas aquellas expresiones ligadas a lo contingente: fortuito, afortunado (desafortunado), coincidencia, casualidad, accidente, suerte, etc. Todos los discursos en torno a estas cuestiones conducen, además, a una tautología: lo infrecuente es aleatorio y lo aleatorio es infrecuente. La versión extrema de ese tipo de planteamientos son los “casos únicos”, los realmente insólitos, aquellos que sólo han aparecido una vez. Es una concepción estética del azar que, por supuesto, nada tiene que ver con la ciencia. No hay nada más irrepetible que una obra de arte, el refugio de lo exclusivo y lo inimitable, por contraste con el repudio que provoca lo rutinario y lo monótono, aquello que se repite. La concepción absoluta del azar, como la que expone Monod, no es más que una concepción decorativa trasladada a la genética.

El imaginario mendelista está edificado sobre una noción fantástica de azar, en el que éste es consustancial a una no menos fantástica noción de la libertad humana, que contrasta con el marxismo, negador de esa misma libertad, como corresponde una ideología dogmática. Huxley sostuvo la tesis de que la genética soviética había repudiado el mendelismo porque el marxismo, a su vez, como doctrina dogmática, repudia el azar:

Es posible que detrás del pensamiento de los dirigentes políticos e ideológicos de la U.R.S.S. exista el sentimiento de que no hay lugar para el azar o para la indeterminación en la ideología marxista en general ni, en particular, en la ciencia, tal como la concibe el materialismo dialéctico, el sentimiento de que en un sistema que pretende la certeza no hay lugar para la probabilidad o el accidente. No se si esa es o no la respuesta correcta. Para descubrir las razones fundamentales del ataque a la teoría de las probabilidades, sería necesario leer, digerir y analizar todo lo que ha sido publicado en Rusia sobre el tema, y aunque valdría la pena hacerlo, debo dejarlo para otros (242).

Efectivamente, el genetista británico no tenía ni la más remota idea de lo que estaba hablando, pero no por eso guardó silencio, como corresponde a cualquier persona que es consciente de su falta de información, máxime si se trata de un científico. Pero cuando se alude a la URSS la ignorancia importa menos, de manera que la pretensión de Huxley de extender la crítica al mendelismo al cálculo de probabilidades, es una auténtica aberración que pone al desnudo su absoluta falta de honestidad intelectual. Entre otros datos, Huxley ignoraba que la primera obra de Marx en defensa de la teoría del “clinamen” de los átomos de Epicuro no es, en definitiva, más que una crítica del estricto determinismo de Demócrito y, por consiguiente, una defensa del papel del azar (243). Ignoraba también que el azar fue introducido en 1933 en la matemática moderna por el soviético Kolmogorov, junto con Jinchin autor de los manuales más importantes de esta disciplina en el siglo pasado (244). Sin desarrollar la estadística, la econometría y el cálculo de probabilidades, la planificación socialista no hubiera sido posible, ni tampoco fabricar cohetes balísticos intercontinentales o satélites espaciales.

Del azar cabe decir lo mismo que del alma y demás conceptos teológicos introducidos en la biología sin mayores explicaciones por la puerta trasera. En la antigüedad clásica su presencia se imputaba a la intervención en los fenómenos naturales de entes inmateriales o sobrenaturales que desviaban el curso esperado de los acontecimientos. Así eludimos nuestra propia responsabilidad por las decisiones erróneas que adoptamos: hemos tenido mala suerte. No hemos previsto todas las consecuencias posibles que se pueden derivar de nuestros actos y a ese resultado le llamamos azar. A causa de ello, en nuestra vida nos ayudamos de amuletos que nos traen buena suerte. Los espíritus deciden las situaciones inciertas haciendo que la suerte sonría a los más fieles, aquellos que rezan o sacan de romería imágenes sagradas para que llueva y las cosechas sean abundantes. Las causas inexplicables se atribuyeron primero a la fortuna, que era una diosa, y luego al azar, el reducto en el que la ciencia jamás podrá penetrar.

A partir del siglo XVII, como en tantos otros fenómenos, se demostró que no hay nada incognoscible y nació el cálculo de probabilidades, cuyo desarrollo constata que no existe una muralla infranqueable entre los fenómenos deterministas y los aleatorios, que no hay fenómenos absolutamente causales, por un lado, ni fenómenos absolutamente fortuitos, por el otro: “Un fenómeno absolutamente casual significaría algo no necesario, algo sin fundamento, en cualquier tipo de relación. Sin embargo, esto destruiría el determinismo, la unidad material del mundo. Reconocer la casualidad absoluta significa reconocer la existencia de milagros, por cuanto éstos, precisamente, son fenómenos que no obedecen a causas naturales” (245). El azar absoluto (esencial lo llama Monod) es idéntico al determinismo absoluto; el destino fatal. Más bien al contrario, el azar se manifiesta conforme a determinadas leyes que no son, en esencia, diferentes de las que rigen los fenómenos causales hasta el punto de que se puede calcular la probabilidad de que determinados acontecimientos casuales se produzcan. De ahí que a determinados fenómenos de tipo determinista se les puedan aplicar las leyes probabilísticas, y a la inversa. Es importante tener en cuenta que el cálculo de probabilidades no es sólo un recurso matemático, cuantitativo sino cualitativo. Lo que determina es que:

a) de una misma acción se pueden derivar varios resultados posibles
b) es posible medir esas diferentes posibilidades
c) hay resultados cuya producción es imposible

Como cualquier otra disciplina científica, el cálculo de probabilidades nace de la práctica como una ciencia aplicada para resolver problemas muy concretos sobre contratos mercantiles de aseguramiento. Lo seguro nace de lo inseguro. En su origen fue una curiosidad que entraba en la matemática como una disciplina menor que tomó los juegos de azar como campo de pruebas. Posteriormente ha alcanzado un enorme grado de abstracción, lo cual permite su aplicación a numerosos fenómenos reales, de los que sólo una parte pueden calificarse como aleatorios. De esta manera los fenómenos meteorológicos, antes imputados al azar, se conocen mejor porque los condicionantes que tienen relación con la presión atmosférica, la lluvia, la temperatura, etc., están más definidos y porque hay más información acerca de su desenvolvimiento. Del mismo modo, para fijar las primas en los seguros de vida las empresas elaboraron complejas tablas de defunción, es decir, que el cálculo se basaba en una previa experiencia práctica real. El azar es, pues, un problema de información (pero no sólo de información). No obstante, ante la confusión existente en el empleo de estas nociones, es necesario añadir que tanto da hablar de información como de falta de información, porque la información es siempre relativa y es siempre progresivamente creciente. No hay nada de lo que no sepamos nada; tampoco de lo que lo sepamos todo. Cuando se dice que el azar es una medida de nuestra ignorancia, también se podría expresar lo mismo diciendo que el azar es una medida de nuestro conocimiento. ¿Está la botella medio llena o medio vacía?

La introducción del azar en biología corrió paralela a la mecánica cuántica, en donde se produjo un fenómeno parecido al que aquí examinamos: lo que se nos está transmitiendo y, por tanto, lo que identificamos como mecánica cuántica, es una interpretación singular de ella, a saber, la que llevó a cabo la Escuela de Copenhague. Si en genética no hay más que mendelismo y neodarwinismo, en física no hay más que Heisenberg, Born y Bohr. El resto son especímenes seudocientíficos, herejes equiparables a Lysenko. La mecánica cuántica ha vuelto a poner otra vez de moda el azar, como si hubiera planteado algo diferente, algo que no era conocido hasta entonces (246). A pesar de tratarse de una disciplina joven y aún no consolidada, se la ha tratado de convertir en el patrón de todas las demás ciencias, de extrapolar sus principios fuera del ámbito específico para el que han sido concebidos. Parece que todos los fenómenos del universo se rigen por la mecánica cuántica, lo cual es absurdo porque desde comienzos del siglo XX la física ha dejado de ser la ciencia unificada de antaño, es decir, que ni siquiera la mecánica cuántica es toda la física. A pesar de un siglo de esfuerzos, ésta carece de unidad interna, no existe como teoría unificada, cuyos conceptos y leyes eran de validez general. Si la mecánica cuántica no es extensible a todos los fenómenos físicos, con más razón tampoco será extensible a otro tipo de fenómenos diferentes, como los biológicos. Por lo demás, el concepto de azar, como cualquier otro, no se puede perfilar sólo en la mecánica cuántica, ni en la genética, ni en la economía política, ni en la termodinámica, ni en ninguna ciencia concreta de manera exclusiva. Habrá que tener en cuenta todas ellas simultáneamente y, en particular, el cálculo de probabilidades.

En la mecánica cuántica como en genética no hay efecto sin causa ni causa sin efecto que, por lo demás, no son únicos, es decir, un efecto tiene múltiples causas (y a la inversa) y las causas pueden producir efectos contrapuestos. El principio de causalidad dimana del principio de conservación de la materia y la energía: los fenómenos no surgen de la nada. Si, como también he sostenido, las causas se convierten en efectos y los efectos en causas, del mismo modo la necesidad se convierte en azar y el azar en necesidad. Lo que para el casino es una ley determinista que le reporta beneficios inexorablemente, para el jugador de bacarrá que se acomoda en una de sus mesas es puramente aleatorio. No cabe duda de que en los fenómenos materiales existen las probabilidades del mismo modo que a ellas les acompaña el cálculo de esas mismas probabilidades: “El azar es omnipresente, pero se suprime a sí mismo al adquirir la forma de leyes” (247). Muchos de los debates sobre el azar se podrían eliminar teniendo en cuenta que también los fenómenos aleatorios se rigen por leyes, como el teorema de Bayes, que permite calcular la probabilidad de las causas. A partir de ahí es posible comprender que el azar y la necesidad no están separados el uno del otro, que la intervención del azar no excluye la necesidad, y a la inversa. El azar, pues, es el modo en que se manifiesta la necesidad; ambos forman una unidad de contrarios.

No obstante, una vez más, la metafísica positivista introduce barreras dicotómicas donde no las hay. A pesar de tres siglos de evolución del cálculo de probabilidades y la estadística se sigue preguntando si el azar existe o si, por el contrario, dios no juega a los dados. Confrontadas a los mismos fenómenos aleatorios pero aisladas entre sí, las ciencias parecen esquizofrénicas. Las hay absolutamente deterministas, como la astrofísica (“mecánica celeste”), y las hay absolutamente estocásticas, como la mecánica cuántica. A partir de fenómenos singulares y teorías locales, extrapolan concepciones generales, imprecisas, a las que otorgan un carácter absoluto. Por un lado, la metafísica positivista mantiene una concepción mecánica de los fenómenos estocásticos; por el otro, la estadística se ha convertido en su gran coartada ideológica: en panestadística. Con ello quieren decir que todo en la naturaleza es estadístico, aleatorio, lo cual es cierto, como también es cierto que todo en la naturaleza es, al mismo tiempo, necesario. La ilusión proviene de la abstracción alcanzada por los métodos matemáticos de cálculo, que permiten aplicar la estadística a fenómenos que hasta la fecha no se habían considerado aleatorios en sentido estricto, a tratar todos los fenómenos como si lo fueran y, por consiguiente, a introducir en ellos el azar “artificialmente”. Además, en los postulados positivistas la estadística figura como un método exclusivamente inductivo un recorrido de lo particular a lo general. Aparentemente, de ese método quedan excluídas, como es habitual entre los empiristas, las hipótesis previas. Finalmente, de sus conclusiones -según dicen- no se obtienen reglas de tipo causal sino puras correlaciones y coincidencias. Los fenómenos se presentan juntos, uno al lado del otro o uno después del otro pero sín vínculos internos entre ellos. Es una precaución que los empiristas se preocupan de advertir, con buenas razones. Las dos primeras tesis son falsas: el cálculo de probabilidades es un método a la vez inductivo y deductivo y, además, por el propio carácter deductivo, hace un uso de las hipótesis que es esencial al propio cálculo y que está en el nombre mismo de algunos de los conceptos matemáticos utilizados, como el de “esperanza”, que no es más que la expectativa de un determinado resultado. Finalmente, la estadística pone de manifiesto tanto correlaciones como vínculos causales objetivos entre los fenómenos, por más que no se puedan confundir las unas con los otros.

La imagen distorsionada del azar proviene de otra ilusión, la de pretender alcanzar un conocimiento exhaustivo de los fenómenos, de todos los factores que conducen a la producción de un determinado evento, lo cual no es posible ni tampoco necesario. La ciencia no avanza por impulsos teóricos sino prácticos. Sus pretensiones tampoco son teóricas sino prácticas. Nace de la práctica y tiene la práctica como destino final. Sabemos aquello que necesitamos y en la medida en que lo necesitamos. En un muestreo electoral no importa a qué candidato vota cada cual, sino el voto del conjunto. El comportamiento de un componente aislado puede resultar aleatorio, pero el del conjunto no lo es. La ciencia puede determinar un cierto número de condicionantes, los más importantes y los más directos, pero nunca la totalidad de ellos. Normalmente, cuando en ciertos fenómenos se descubre una ley determinista, tal como la ley de la gravedad o la de Boyle-Mariotte, se dice que una o un reducido número de causas producen siempre un cierto efecto de manera necesaria, quedando todo lo demás como fortuito o casual. La producción de resultados imprevistos pone de manifiesto la complejidad de un determinado fenómeno, la operatividad, junto a los condicionantes inmediatos, de otros más débiles o remotos. En ocasiones el cálculo de probabilidades sirve para poner de manifiesto la trascendencia de esos condicionantes remotos. Como decía Hegel, la tarea de la ciencia consiste precisamente en aprehender la necesidad oculta bajo la apariencia de la contingencia (248).

Para los positivistas, que no gustan de las formulaciones filosóficas, se puede recurrir a expresar la misma noción citando a un matemático contemporáneo de Hegel como Laplace quien, por otra de esas paradojas absurdas de los libros de bolsillo, aparece como el paladín de un cierto “determinismo”, cuando se trata, en realidad, del impulsor del cálculo de probabilidades. Laplace recuerda el principio de razón suficiente para defender que todo acontecimiento tiene una causa. Sin embargo, sostiene, existen acontecimientos “pequeños” que parecen no sujetarse a las leyes de la naturaleza y cuyos lazos con el resto del universo no conocemos exactamente. No habría incertidumbre si existiera una inteligencia capaz de realizar todos los cálculos relativos al cambio de cada estado en el universo, afirma Laplace en cita muy repetida. Pero el conocimiento humano es sólo un pálido reflejo de ese intelecto hipotético. No obstante, el incesante avance del conocimiento le acerca hacia él, si bien nunca llegará a tener su misma capacidad omnisciente. Ese intelecto hipotético de Laplace es, pues, dinámico, no queda restringido a un momento determinado del saber sino a su avance incesante a lo largo de la historia del conocimiento científico. Del mismo modo, para Laplace la probabilidad matemática es un concepto dinámico, una aproximación: “En medio de las causas variables y desconocidas que comprendemos bajo el nombre de azar y que convierten en incierta e irregular la marcha de los aconteciminetos, se ve nacer a medida que se multiplican, una regularidad chocante […] Esta regularidad no es más que el desarrollo de las posibilidades respectivas de los sucesos simples que deben presentarse más a menudo cuanto más probables sean […] Las relaciones de los efectos de la naturaleza son mucho más constantes cuando esos efectos se consideran en gran número […] La acción de causas regulares y constantes debe prevalecer a la larga sobre la de las causas irregulares” (249).

La comprensión del azar también ha estado interferida por la eterna cuestión del libre albedrío, de la libertad humana. Se concebía que donde existía determinismo no había lugar para la libertad. Ésta es la libertad de elección, la capacidad de optar entre varias posibilidades diferentes, concebida de forma omnímoda. Pero como bien saben los que han tratado de realizar una tarea de manera aleatoria, libérrima, el azar “puro” es tan inimitable como la obra de arte (250). Cada vez que alguien intenta repetir un acontecimiento aleatorio, emerge la necesidad. Nadie es capaz de elegir números al azar, incluso entre un número finito de ellos. Alguien que vaya diciendo números aleatorios del 0 al 99 puede permanecer días completos dando cifras y habría números que nunca mencionaría. Por consiguiente, no todos los números tendrían la misma posibilidad de aparecer. Lo mismo sucede si pedimos a un colectivo de personas que elija números al azar: siempre habría unos que serán elegidos con mayor frecuencia que otros. Los números obtenidos por medios informáticos se denominan seudo-aleatorios porque no es posible asegurar que verdaderamente sean aleatorios. De ahí la dificultad de las simulaciones, e incluso de algunos sondeos y muestreos: para resultar representativos los datos se tienen que tomar al azar. Por eso nadie puede entrar en un casino con un ordenador o una calculadora, ni siquiera apuntar los resultados; por eso los componentes de una ruleta cambian continuamente, como los dados o los naipes: a largo plazo siempre surge la regularidad en medio de lo que parece caótico. Cualquier criptógrafo conoce los problemas de obtener números verdaderamente aleatorios, cuya secuencia no responda a una lógica interna entre ellos, a lo que Laplace llamaba “función generatriz” y que hoy llamaríamos algoritmo. De aquí también deducimos otra consecuencia importante: por sí mismo un número aleatorio no existe, solo existe dentro de un colectivo de otros números, de los cuales es independiente (o dependiente). Los juegos de azar tienen sus reglas de juego de tal manera que las partidas se pueden reproducir indefinidamente. Por su parte, uno de los principios esenciales del cálculo de probabilidades es que la suma de todos los resultados posibles tiene que ser igual a la unidad. La multiplicidad es tan necesaria como la unidad. A diferencia del arte, en la ciencia no existen “casos únicos”. Es otra de las consecuencias de la ley de los grandes números. Una de las diferencias entre la ciencia y la ufología o la parapsicología es que éstas versan sobre fenómenos extraños y raros, mientras que la ciencia es rutinaria: estudia fenómenos que se repiten. Que la teoría sintética haya convertido a las mutaciones génicas en un “error de copia”, en un fenómeno tan insólito como los platillos volantes o las psicofonías, es un reflejo de su falta de estatuto científico.

La materia viva responde a leyes más complejas que la inerte; en cada fenómeno confluyen muchas causas, de las cuales algunas dependen de factores subjetivos, de seres vivos individuales que, tomados de uno en uno, como el jugador de bacarrá, son imprevisibles. Sin embargo, considerados en su generalidad, como fenómenos masivos, sí son previsibles. Los fenómenos meteorológicos son un buen campo para estudiar la evolución del azar en la ciencia, desde los remotos tiempos en que se concebían como puramente aleatorios, hasta que se han llegado a conocer mejor y, por tanto, a dominar y a prever sus consecuencias. La tendencia general, pues, es a disminuir el azar al mejorar el conocimiento, lo cual no significa que se pueda eliminar el azar de manera completa porque jamás el conocimiento puede ser completo sobre ningún fenómeno. Cualquier volumen de información que se pueda recabar en torno a un determinado fenómeno no excluye jamás el error. Es más, el error está en el nacimiento mismo de la teoría de probabilidades, con las dificultades surgidas en la medición de distancias astronómicas, ninguna de las cuales es coincidente. Pero si bien eso es cierto, también lo es que los valores obtenidos en una medición se aproximan a un cierto punto y que esas aproximaciones son tanto mayores cuantas más mediciones se realizan. Los errores no son erráticos sino que siguen una ley de distribución normal o de Gauss.

Por cierto, Gauss mantenía correspondencia epistolar con Napp, el prior del convento en el que ingresó Mendel. Algunas de aquellas cartas versaban precisamente sobre estadística y teoría de los errores, lo cual explica el fraude de Mendel con los guisantes. Mendel expuso en forma de experimento singular lo que no era más que un promedio, un resumen general de la experiencia de muchos resultados distintos (pero aproximados); presentó como un método de investigación lo que no es más que un método de exposición. De ahí que sus resultados fueran tan exactos. Pero en un sentido nominalista estricto, los promedios no existen y, por consiguiente, la probabilidad nunca aparece en la realidad. Es más, a medida que los resultados se acumulan progresivamente, los resultados cada vez divergen más de su probabilidad en términos absolutos (cuantitativos). Por ejemplo, los decimales del número ? aparecen aleatoriamente y se conocen ya 200.000 millones de ellos. Cabe calcular, pues, que cada dígito, que tiene una probabilidad de 1/10, aparecerá 20.000 millones de veces. No es así. El cero supera su expectativa en más de 30.000; con la cuarta parte de dígitos, el cero la supera en poco más de 12.000. El error, por lo tanto, se ha duplicado con creces, lo cual significa que al llevar a cabo un experimento real, lo más probable -casi con una seguridad absoluta- es que la probabilidad no aparezca nunca de manera exacta, por más que se repita el experimento. Todo lo contrario: cuanto más se experimenta, más errores aparecen en términos absolutos (cuantitativos). Pero el error, como la probabilidad, no es sólo un número; además de su componente cuantitativo el error y la probabilidad tienen un componente cualitativo. Al transformarse de nuevo en cualidad el error y la probabilidad ya no son un número sino una relación entre dos números, una proporción o, por decirlo de otra manera, una abstracción: lo abstracto y uniforme se pone en el lugar de lo concreto y diverso, lo exacto en lugar de lo inexacto. Lo probable se transforma en improbable. El azar se niega a sí mismo y se transforma en necesidad.

La teoría de los errores de Gauss demostraba que el cálculo de probabilidades tiene relación con los problemas de conteo y medición, es decir, con la transformación recíproca de la cualidad en cantidad. Como su propio nombre indica, es una forma de cálculo que permite el manejo de grandes cantidades de información que serían imposibles sin él. Por ejemplo, el muestreo facilita el estudio del todo en una de sus partes, realizar extrapolaciones sobre un número muy grande de datos, conociendo sólo una parte de ellos, empleando sólo su media y otros conceptos matemáticos derivados, como la varianza. Del mismo modo, el comportamiento de un juego de azar puede parecer errático cuando se llevan disputadas unas pocas partidas; no obstante, cuando el volumen de información aumenta con el número de partidas disputadas, deja de serlo y aparecen las leyes conforme a las cuales se desenvuelve. Por eso, decía Hegel, la necesidad se abre camino en forma de azar. Ese es el significado exacto de la ley de los grandes números. Más de la mitad de los fenómenos considerados aleatorios siguen una de las tres leyes de distribución, uniforme, normal y de Poisson, y otra tercera parte siguen a otras diez leyes de distribución. Por ejemplo, el número de mutaciones de una molécula de ADN después de cierta cantidad de radiación no se produce al azar sino que sigue una distribución de Poisson. Como concluye un matemático: “Uno de los fenómenos más sorprendentes de la teoría de las probabilidades es el pequeño número de leyes a las cuales se reduce la mayor parte de problemas que se les plantean a los probabilistas” (251).

Hace tiempo que los errores forman parte integrante de la ciencia. Ponen de manifiesto que ni la matemática ni ninguna otra disciplina es exacta, que ninguna puede obtener una información exahustiva acerca de un determinado fenómeno. Pero el azar no sólo opera (y seguirá operando) en ese sentido limitado y subjetivo porque la naturaleza está en un desarrollo permanente, cambia y engendra de manera incesante. El efecto siempre contiene algo nuevo en comparación con la causa: “Durante el desarrollo no sólo se realizan las posibilidades existentes en el pasado sino que se crean posibilidades nuevas por principio, no implícitas en los estados anteriores de la materia […] Las nuevas posibilidades no se originan sin causa, sino como una tendencia de los nuevos estados de la materia, antes inexistentes” (252).

El preformismo en biología, lo mismo que la predestinación luterana, son variantes del mecanicismo que desconocen la potencialidad del desarrollo, que en la evolución continuamente se estan creando nuevas posibilidades y nuevas potencialidades. A causa de ello, el futuro no está escrito en el pasado; por bien que conociéramos éste nunca podríamos vislumbrar aquel. Los positivistas, para quienes la realidad es un presente continuo, desconfían de las posibilidades y se atienen a lo realmente existente, a las posibilidades ya realizadas. Pero las posibilidades forman parte de la realidad, están en ella, no de una manera subjetiva sino objetiva. La contingencia, decía Hegel, es la posibilidad de otra existencia, no a título de simple posibilidad abstracta sino como posibilidad real, porque la posibilidad es un componente esencial de la realidad: “Esta contingencia hay que reconocerla y no pretender que tal cosa no puede ser sino así y no de otro modo” (253). La ciencia explica la transformación de la posibilidad en realidad. Su objeto no está tanto en relatar lo que ocurrió sino en las razones por las cuales ocurrió, aquellas que lo hicieron posible. Si, como vengo defendiendo, de una determinada causa pueden derivarse diferentes efectos posibles, la tarea de la ciencia consiste en precisar -con verdadera necesidad- el conjunto de posibilidades realmente factibles en cada caso, según determinadas circunstancias, frente a todo aquello que resulta imposible. Los acontecimientos reales tienen que ser posibles, pero un acontecimiento posible puede ocurrir o puede no ocurrir. Si un fenómeno es posible sólo puede aparecer en la realidad de manera casual: “Si una causa no produce con necesidad un determinado efecto, sino que puede dar lugar a toda una serie de efectos diversos, entonces es realmente casual cuál de esos efectos se produzca efectivamente” (254).

La diferenciación de las células embrionarias demuestra que el concepto de posibilidad no es exclusivamente filosófico sino que tiene importantes expresiones en la biología. Los organismos superiores tienen más posibilidades de desarrollo que los inferiores. Las posibilidades se realizarán siempre que se cumplan las leyes que rigen el fenómeno, siempre que se den las condiciones precisas para ello y, por el contrario, no se den las contratendencias que se le oponen. De ahí que la evolución se deba concebir con un sentido progresivo, hacia una mayor complejidad, hacia formas superiores de materia: de la materia inerte a la materia viva y de ésta hacia la sociedad, la cultura y los fenómenos singularmente humanos. De ahí que quepa concluir que quienes realmente han introducido en el azar en la biología de una manera impecable han sido los mismos que han concebido la evolución como un desarrollo potencial, no lineal, entre ellos Lamarck y Lysenko. En efecto, el concepto de potencialidad que ambos utilizan acredita dos cosas al mismo tiempo: que su concepción de la biología no es ni finalista ni actualista (255). Lamarck entiende la naturaleza como “potencia” y habla del “poder de la vida” que, sin embargo, se ve contrarrestado por las “causas modificantes”, por lo cual la progresión de los seres vivos no puede ser ni sostenida ni regular (256). Esas “causas modificantes” a las que alude Lamarck son, pues, el fundamento de las regresiones en la evolución y, en última instancia, de las extinciones, otra prueba más de la ausencia de finalismo en la teoría lamarckista.

En su noción vulgar, positivista, el azar excluye la causalidad, no liga el pasado al presente, ni éste al futuro. Por tanto, si el azar fuera absoluto no habría evolución porque todo empieza de nuevo; otra vuelta de la ruleta. Su introducción en la genética proviene de la escisión entre la generación y la herencia; al poner todo el énfasis en ésta desaparece cualquier posibilidad de innovación. En este sentido el azar desempeña el papel creador de lo nuevo en la evolución biológica y ese es el verdadero significado de la mutación como salto cualitativo o, como dice René Thom, un auténtico acto de creación a partir de la nada: “En ciencia, lo aleatorio puro, es el proceso markoviano, donde todo vestigio del pasado se elimina en la génesis del nuevo golpe; en cada prueba se reitera el ‘big bang’ creador: lo aleatorio puro exige un hecho sin causa, es decir, un comienzo absoluto. Pero en la historia de nuestra representación de lo real, no hay otro ejemplo de comienzo absoluto que el de la Creación” (257). La teoría de las mutaciones es, pues, un forma de creacionismo laico, un retorno bíblico bajo nuevas apariencias. Las mutaciones se explican sin necesidad de previos cambios cuantitativos, graduales, evolutivos. En la herencia había continuidad sin cambio y en la mutación había cambio sin continuidad. Monod lo expresó de la manera extremadamente dogmática que acostumbran los mendelistas: “Por sí mismo el azar es la fuente de toda novedad, de toda creación en la biosfera. El azar puro, el azar exclusivamente, libertad absoluta pero ciega, es la raíz misma del prodigioso edificio de la evolución: esta noción central de la biología moderna ya no es hoy una hipótesis entre otras posibles o al menos concebibles. Es la única concebible, la única compatible con los hechos de observación y de experiencia. Y nada permite suponer (o esperar) que nuestras concepciones sobre este punto deban o incluso puedan ser revisadas” (258). Otro punto y final para la ciencia; también aquí no hay nada más que aportar al respecto. La ideología siempre intenta impedir el avance de la ciencia sustituyéndola, necesariamente travestida de dogmatismos de esa pretenciosidad.

Con la teoría de las mutaciones la genética adopta un ademán matemático abstracto o, como diría Lysenko, formal. Ya los trabajos de Mendel presentaban un sesgo probabilístico y estadístico pero fue la propia utilización de Mendel contra Darwin la que impulsó el tratamiento abstracto de la genética. Frente a los mendelistas como Bateson, los biometristas siguieron defendiendo a Darwin. Los primeros empezaron a ganar la partida, pero hacia los años veinte los biometristas lograron imponer su concepción estadística y se produjo la primera síntesis: ambas concepciones no eran incompatibles; Darwin y Mendel podían convivir. Los modelos estadísticos elaborados por los genetistas soviéticos, dados a conocer en los países capitalistas por Fisher, Haldane y Wright como si fueran previos, abrieron la vía a la “genética de poblaciones” y al tratamiento estadístico de la herencia que facilitó la amalgama entre Mendel y Darwin. Engels ya había puesto de manifiesto que “también los organismos de la naturaleza tienen sus leyes de población prácticamente sin estudiar en absoluto, pero cuyo descubrimiento será de importancia decisiva para la teoría de la evolución de las especies”. Ahora bien, los modelos estadísticos poblacionales se fundamentaban en dos de las claves de la ideología burguesa en materia biológica: micromerismo y malthusianismo, la “lucha por la existencia” y la competencia entre los seres vivos (259). Para introducir sus modelos estadísticos los mendelistas parten de una muestra de sucesos independientes entre sí. El protipo burgués es Robin Crusoe. Los animales silvestres son como los hombres en la sociedad: están atomizados, enfrentados unos con otros, sin vínculos mutuos de sociabilidad, como las moléculas de gas en un recipiente cerrado, rebotando unas contra otras. Volterra quería elaborar la “teoría matemática de la lucha por la existencia” (260). No existen familias, ni rebaños, ni enjambres, ni manadas. Pero no todas las relaciones sociales son independientes, bilaterales e iguales. Así, la abeja doméstica (Apis mellifera) es un insecto social que vive en colmenas. Aislada, una abeja muere al cabo de pocos días. Las sociedades apícolas se componen de tres tipos de individuos (reina, obreras y zánganos) que mantienen entre sí una división de tareas y, por consiguiente, una especialización funcional sin ninguna clase de competencia o lucha interna entre ellas ni entre otros animales sociales o, por lo menos, no es ése el comportamiento predominante. Más bien al contrario, la subsistencia de la abeja doméstica se fundamenta en la colaboración y coordinación sinérgica de actividades dentro y fuera de la colmena, hasta el punto de que no se las pueden considerar como seres independientes. El intercambio de alimento es una conducta innata en muchas especies animales. Por ejemplo, los insectos sociales practican la trofalaxis, es decir, la mutua entrega y recepción de nutrientes. Si la colonia pasa hambre, pasan hambre todos sus integrantes por igual. La abeja recolectora ofrece parte del botín a otra obrera que lo demanda sacando su lengua hasta recibir una porción que rezuma de la boca de la primera. Además, mediante la trofalaxis las abejas se traspasan feromonas, que es una forma de comunicación y reparto social de las tareas.

Entre las abejas domésticas el reparto de funciones alcanza también a los dos aspectos vitales de la alimentación y la reproducción. Las obreras se encargan de la parte vegetativa y la reina y los zánganos de la reproductiva. Por lo tanto, la reproducción no se verifica al azar sino conforme a reglas bien establecidas con un fuerte carácter endogámico. Sólo la reina es fecundada y, por lo tanto, es la madre de toda la colonia. Su función es poner huevos toda su vida y sólo sale de la colmena para fecundarse. Los zánganos son los machos y proceden de huevos sin fecundar, es decir, son clones de la reina, a la vez que hijos, medio hermanos también de ella. Por su parte, las obreras no es que sean infértiles, como se afirma en ocasiones, sino que la presencia de la reina les impide desarrollar sus órganos genitales. Mientras en la colmena hay una reina activa, las obreras no desarrollan otras que puedan competir con ella. Pero en cuanto empieza a envejecer o muere, las obreras inician la construcción de celdas reales. En la colmena la función de la reina depende de la jalea real; mientras circula por la colmena, las obreras no buscan sucesoras. Dicha sustancia se produce en las glándulas cefálicas de la reina, que al lamerse el cuerpo se empapa con ella, la cual a su vez la lamen las obreras que se encargan de su aseo y éstas, a su vez, la transmiten a otras.

Los modelos matemáticos elaborados por la teoría sintética no tienen en cuenta este tipo de fenómenos sociales. Se fundamentan en el individualismo y el malthusianismo, y su concepción puramente cuantitativa se expresa en la noción de que la evolución no es más que un “éxito reproductivo”, que consiste en multiplicarse en mayor número o en más cantidad de individuos. Si eso fuera cierto, la biosfera resultaría una proeza de los insectos que, con más de un millón de especies conocidas, suponen cerca del 75 por ciento de todos los seres vivos pluricelulares. Los malthusianos escinden al individuo del medio, afirmando que el primero podría multiplicarse indefinidamente, pero que el medio le pone limitaciones. Sostienen que los individuos crecen más que los recursos que el medio les puede proporcionar. Pero esto es completamente absurdo porque el alimento de algunos individuos son individuos de otras especies que, por consiguiente, por la misma “ley” de Malthus, también deberían crecer en la misma proporción. Un ave acuática como el somormujo, por ejemplo, es alimento de las truchas y, a su vez, se alimentan de renacuajos. El mismo animal a unos efectos es depredador y a otros es presa. Por lo tanto, los cálculos malthusianos son incoherentes, ya que no existe ningún motivo para pensar que a unos efectos el número de somormujos deba crecer en mayor medida que a otros. Como es previsible las absurdas teorías malthusianas conducen a las no menos absurdas teorías apocalípticas, que convierten en un “fracaso” ecológico lo que para los genetistas es un “éxito” reproductivo:

Los científicos que estudian la población humana han llegado a la conclusión de que el mundo ha alcanzado su capacidad de sustento, que es la capacidad de abastecer las necesidades de la gente. Así que en el futuro será difícil alimentar, vestir, dar vivienda y trabajo a un número adicional de personas a un nivel superior al de subsistencia vital. El rápido crecimiento de la población ha dilatado ya los recursos del planeta; las estimaciones sobre el crecimiento en el futuro platean serias dudas sobre si el planeta podrá seguir abasteciendo las necesidades crecientes de la gente. En los próximos 50 años se necesitará un aumento de la actividad económica diez veces superior al actual para dar salida a las necesidades humanas básicas -una situación que posioblemente la biosfera no pueda tolerar sin un deterioro irreversible. En los países en vías de desarrollo, con las tasas más elevadas de nacimientos, las ganancias económicas se acaban rápidamente -simplemente por tener demasiadas bocas para alimentar. Los países en vías de desarrollo de Asia, África y América del Sur se encuentran en la desesperada carrera de mantener el abastecimiento de alimentos al nivel del crecimiento de la población. Cuando se produce una sequía y se extiende el hambre, sus gentes se encuentran en grave peligro, especialmente si por razones políticas o de otro tipo, la importación de alimentos no puede abastecer a la demanda […]

Cuando la agricultura no pueda proporcionar los alimentos necesarios, la gente se encontrará en grave peligro de morir de hambre. En climas favorables las poblaciones crecen más allá de los límites que imponen los climas desfavorables -que es cuando las cosechas son pobres. La raza humana podría encontrarse más cerca del abismo cuando el hambre en masa surja como consecuencia de una reduccion de la producción de los cultivos provocvada por la sequía, las infecciones o la enfermedad de éstos” (261).

Este tipo de soflamas constituye uno de los mayores fraudes seudocientíficos contemporáneos, cuyo objeto es el de maquillar el hambre y las calamidades sanitarias que padece la población mundial. Normalmente, el volumen de cualquier población de seres vivos es una función inversa de su densidad, nivelando su número antes del punto de saturación. En ocasiones, pueden darse casos de crecimiento incontrolado de determinadas poblaciones, como en el caso de las plagas. También hay irrupciones periódicas de poblaciones de determinadas especies que ocasionan grandes oscilaciones en la densidad poblacional. Se trata de fenómenos temporales o cíclicos que también acaban autorregulándose (261b).

El movimiento cuantitativo de una población no es un fenómeno genético sino ecológico. En cuanto a la demografía humana, se trata de un fenómeno social, no solamente biológico. No obstante, Malthus parte de la primacía de lo biológico sobre lo social en el crecimiento poblacional y considera su hipótesis demográfica como una “ley de nuestra naturaleza”. A partir de su ensayo los demógrafos malthusianos forjaron el concepto de movimiento “natural” de la población, deducido como la diferencia entre la natalidad y la mortalidad. Como fenómeno biológico, la población se rige por una “ley” invariable que se originó hace 3.500 millones de años, con el origen de la vida sobre el planeta, y sigue operando inexorablemente, tanto en las sociedades humanas como en las poblaciones animales, algo realmente insólito que carece de precedentes científicos de ninguna clase. Lo mismo que los genes, para el malthusianismo la población humana es otra de esas abstracciones ahistóricas, capaz, no obstante, de desempeñar el papel de variable independiente: lo condiciona todo y no es condicionada por nada.

La otra parte del mismo problema, los recursos, se consideran en su cuantía absoluta y no en la forma de su distribución, en el reparto de los mismos. Así, en opinión de Malthus el salario (y por tanto la pobreza y la miseria de la mayoría de la población) es efecto y no causa del exceso de población (261c). Esta teoría es rotundamente falsa. La población humana es una abstracción vacía si no se tienen en cuenta otros condicionamientos sociales, como la estratificación social, las clases sociales o la distribución de los ingresos. Los cambios poblacionales están influenciados por numerosos factores de muy diverso orden: movilidad social, flujos migratorios, urbanización, servicios de salud, convicciones religiosas, etc. Cada modo histórico de producción (y, por lo tanto, cada modo de distribución que de él deriva) tiene sus propias leyes de población, que son, pues, necesariamente variables.

El malthusianismo no es menos erróneo en lo que las poblaciones animales concierne. Así, como el propio Darwin observó, en cautividad la reproducción de algunos animales se paraliza completamente y los individuos se tornan estériles. Según todos los experimentos que desde 1931 se han llevado a cabo con diferentes especies, de manera unánime, tanto en los laboratorios como en estudios de campo, las poblaciones animales autorregulan su número. El crecimiento del volumen de una población animal ni es ilimitado ni depende tampoco de los recursos alimenticios disponibles. Cuando en un terrario con suficiente alimentación y bebida el número de ratones crece hasta una cierta densidad, su fisiología se modifica, las glándulas suprarrenales crecen, entrando en un fenómeno de intensa actividad y la mortalidad de los ejemplares jóvenes aumenta hasta que la reproducción se detiene completamente. Si se extrae de la jaula a una parte de los ratones, el fenómeno se detiene: las glándulas suprarrenales dejan de crecer y se reanuda la reproducción.

El excedente de población es relativo, tanto en el hombre como en los animales. Lo que los experimentos llevados a cabo demuestran es que la reproducción se ralentiza antes de que se pueda hablar de un excedente, es decir, antes de poder afirmar que se ha reducido significativamente el espacio disponible. El fenómeno no depende de la densidad de población, no existe ninguna forma de espacio vital porque si se traslada a la población de ratas a un terrario más amplio, la reproducción sigue descendiendo de la misma forma. Es más, se observa que los roedores que disponen de más espacio tienden a juntarse en sólo una parte del terrario (262).

Los seres humanos también son animales sociales que se rigen por criterios colectivos. Las normas que rigen la reproducción humana no son sólo biológicas ni individuales sino sociales y económicas. Así, hay una norma general en el terreno reproductivo que prohibe el incesto, hay impúberes que dependen de sus padres, en la India las castas no se mezclan entre sí, etc. Los movimientos de población dependen de varios condicionantes, los más importantes de los cuales son de tipo económico. La lucha por la existencia, pues, es otra de esas expresiones que, según Engels, puede abandonarse. Según Engels la lucha por la existencia no tiene el carácter de mecanismo único de la evolución: “puede tener lugar” en la naturaleza pero “sin necesidad de interpretación malthusiana”. La sociedad capitalista se basa en la sobreproducción y el exceso; crea mucho más de lo que puede consumir por lo que se ve obligada a destruir en masa lo producido: “¿Qué sentido puede tener seguir hablando de la ‘lucha por la vida’?”, concluye Engels (263).

A partir de la teoría de las mutaciones, se impone abiertamente la idea de “código” genético donde todo está ya escrito desde tiempo inmemorial: “No hay nada en el hijo que no exista ya en los padres”, reza el dogma mendelista, lo lo que Carrel expresa de una forma parecida: “Nuestra individualidad nace cuando el espermetazoide penetra en el huevo” (264). Pero incluso el individuo como tal desaparece en la genética de poblaciones, cuyo objeto son los genes. El gen aparece entonces como una abstracción matemática o, mejor dicho, se encubre bajo ella, deja de ser una partícula material. Como escribió uno de los defensores de esta concepción, el matemático británico R.A.Fisher, las poblaciones estudiadas son abstracciones, agregados de individuos pero no los individuos mismos y, en cuanto a los resultados, tampoco son individuales sino “un conjunto de posibilidades” (265). Por supuesto, las abstracciones matemáticas resultan inalcanzables por cualquier fenómeno físico exterior. Pero el gen ya no es algo encerrado dentro de una caja fuerte sino como la combinación de esa caja fuerte, su secreto. Los mendelistas han hablado del “desciframiento” del genoma humano como si su tarea fuese de tipo criptográfico.

La matemática se había desarrollado a lomos de la mecánica y no faltan intentos de suplantar a la biología con la mecánica a través de la matemática (y de la estadística). Fisher explicaba la selección natural como si se tratara de un caso de teoría cinética de los gases, lo que da lugar a un tipo de argumentaciones como la siguiente: “Las moscas del vinagre podían ser consideradas como partículas sujetas a las mismas leyes de difusión que afectan a los átomos de un gas. Al mezclar dos cepas distintas de ‘Drosophila’, la competencia entre sus individuos podía ser asimilada a una reacción química. Aplicando modelos físicos de difusión de partículas gaseosas, así como otros tipos de modelos estadísticos, Fisher, Haldane y Wright establecieron las bases de una nueva disciplina, la genética de poblaciones, que estudiaba a los individuos en función de una unidad superior, la población. De este modo la genética se reencontraba con el darwinismo allí donde Francis Galton y otros biómetras se habían estancado: en el análisis de poblaciones y la influencia de la selección natural sobre ellas, no sólo sobre los individuos, sino también sobre los factores subyacentes, los genes, que eran los que se transmitían de generación en generación. Bajo el nivel más aparente del fenotipo, causa de la selección natural, había aparecido un nivel infrayacente, el genotipo, resultante de la selección natural” (266). A través de la modelización matemática, la biología se asimila a la mecánica. Lo que se acaba sosteniendo no es que dos fenómenos (distintos) funcionen de la misma manera (matemática) sino que son iguales. No hay analogía entre los modelos mecánicos y biológicos sino identidad.

La modelización estadística crea un espejismo: pretende hacer pasar las hipótesis como tesis. Sin embargo, la validez de un modelo no está determinada por su forma matemática de exposición sino por su comprobación empírica. Así, se habla en genética de poblaciones de la “ley” de Hardy-Weinberg cuando se debería decir el modelo de Hardy-Weinberg, es decir, una hipótesis sobre el funcionamiento de un fenómeno que debe ser corroborada con los datos empíricos correspondientes, lo cual es imposible porque los postulados sobre los que se construye dicho modelo no existen en la realidad, ni siquiera como aproximación. De la misma manera, según Huxley, Fisher había demostrado “matemáticamente” que la herencia de los caracteres adquiridos, aunque ocurriera en la naturaleza, era incapaz de explicar la evolución (267). Matemáticamente se utiliza aquí, una vez más, en su sentido vulgar, como sinónimo de “indudablemente”, de manera definitiva y concluyente. Es un exceso de demostración: cualquiera se hubiera conformado con una demostración debidamente argumentada y fundamentada en hechos. Algunos científicos tienen un complejo de inferioridad respecto a la física por no haber sido capaces de exponer sus resultados en la misma forma matemática en que lo logró la mecánica desde el siglo XVII, como si la determinación cuantitativa fuera la única posible, sinónimo de una exactitud que no existe en ciencia alguna.

Por lo demás, la modelización matemática opera como un sustituto de la argumentación teórica, de modo que, en lugar de contribuir al desarrollo conceptual -cualitativo- de la ciencia, en ocasiones lo empobrece. Al elaborar una “teoría matemática de la lucha por la existencia” sería necesario precisar también qué es la lucha por la existencia, qué tipo de fenómenos explica (o encubre), qué leyes rigen el crecimiento de las diferentes poblaciones, si son las mismas en las poblaciones humanas y de otros seres vivos, etc. Responder a estos interrogantes no requiere solamente de una aproximación de la biología a la matemática, sino también a otras disciplinas científicas, como por ejemplo, la economía política porque el crecimiento demográfico no es un fenómeno exclusivamente biológico o reproductivo, sino también económico; tampoco es un fenómeno exclusivamente cuantitativo sino cualitativo: las poblaciones no permanecen estáticas sobre el mismo territorio sino que migran y, en consecuencia, interactúan unas con otras.

La equiparación de los animales (y los hombres) con las “máquinas bioquímicas”, es otra de esas extrapolaciones mecanicistas sobre las que está construida esta teoría: el micromerismo. La genética se rige por las leyes de la termodinámica, por lo que cada gen, como cada molécula, debe tener una incidencia insignificante sobre el carácter, es decir, se pierde la individualización causal entre el gen y el carácter que determina. Entonces los mendelistas comienzan a hablar de caracteres cuantitativos, es decir, de caracteres que ya no son contrastables, como los de Mendel, sino graduales. La genética de poblaciones no solamente no tiene fundamento alguno en Darwin sino que tampoco lo tiene en Mendel. Los mendelistas han pasado de la concepción discreta de Mendel a otra de carácter continuo, y ambas son igualmente metafísicas. Si a Mendel y De Vries hay que recordarles que los caracteres no siempre son totalmente contrastables, a los biometristas hay que recordarles que entre un grupo sanguíneo y otro no hay término medio. Este el punto en el que los nuevos mendelistas dejan de serlo y empiezan a balbucear incoherencias: por un lado hablan de caracteres continuos y, por el otro, de mutaciones discontinuas. El recurso a la continuidad o a la discontinuidad es oportunista; depende de las necesidades de la argumentación. Como veremos, para encubrir sus contradicciones los manuales de los mendelistas tienen que introducir nuevos conceptos sobre la marcha:

a) poligenes: varios genes que actúan -pero muy poco- sobre el mismo carácter
b) pleiotropía: un mismo gen que actúa sobre varios caracteres

Los métodos mendelianos son difíciles de aplicar a estos casos de variación continua, reconocen Sinnott, Dunn y Dobzhansky: parecen mezclarse en vez de segregar. Según ellos se debe a la “acción conjunta de varios o de muchos genes, cada uno de los cuales tiene un efecto individual pequeño sobre el carácter en cuestión”. Ahora bien, no existe una divisoria clara entre caracteres cualitativos y cuantitativos. Además los caracteres cuantitativos tienen tendencia a resultar influidos por el ambiente. Los poligenes no son genes diferentes a los demás y su acción es estadística (268). Todas esas cábalas se lanzan al aire sin ningún tipo de argumentación ni de prueba. Hay poligenes que son genes pero cuyos efectos no son los de los genes. Su efecto es “estadístico” pero no explican qué clase de efectos son esos.

Otros autores, como Falconer, empiezan destacando que la genética cuantitativa está en contradicción con el mendelismo: “Los métodos de análisis mendeliano no resultan apropiados en estos casos”, dice inicialmente para acabar luego afirmando que, sin embargo, los principios y las leyes son los mismos y que la genética cuantitativa es una “extensión” de la mendeliana. Sin embargo, los genes ya no determinan caracteres, como en el mendelismo, y mucho menos se puede decir que un gen determina un carácter. Por lo tanto, en contra de lo que sostenía Weismann, para Falconer el objeto de estudio de tal genética cuantitativa no son las progenies aisladas sino las poblaciones; no se trata de clasificar sino de medir. Pero, como sutilmente reconoce el autor, nada de esto tiene ningún fundamento empírico: “El aspecto experimental de la Genética Cuantitativa, sin embargo, ha quedado muy por atrás de su desarrollo teórico, y existe todavía mucho camino por avanzar para lograr su función complementaria. La razón de esto es la dificultad de diseñar experimentos de diagnóstico que discriminen, sin dejar lugar a dudas, entre las muchas situaciones posibles visualizadas por la teoría” (269). Por consiguiente, se trata de un puro artificio matemático.

La teoría de las mutaciones se inventó para cohonestar el mendelismo con la evolución, impidiendo a toda costa la mención del ambiente exterior. De ahí que las mutaciones resultaran automutaciones. Los genes estaban fuera de la evolución, no variaban. La existencia de genes dominantes y recesivos eran una especie de reserva genética, de genes redundantes o sobrantes que no servían para nada, algo que era contrario a la idea de selección natural. Propició la idea de “recombinación” como si los genes preexistieran desde siempre, siendo la evolución una distinta combinación de los mismos genes, la misma baraja con un reparto diferente de cartas. En 1925 el descubrimiento de los efectos genéticos de las radiaciones cambió la situación por completo… o al menos hubiera debido hacerlo porque demostraba la incidencia de los factores externos sobre el genoma. No fue así porque se olvidó ese aspecto y se interpretó como la segunda confirmación de la hipótesis del gen, después de la teoría cromosómica. La hipótesis del gen se transformó en la teoría del gen: existían los genes porque se podían modificar por medios físicos. La parte ambiental no fue tomada en consideración porque estimaron que, en realidad, no había mutaciones inducidas exteriormente sino que los agentes ambientales aumentaban la frecuencia de las mutaciones naturales, entendidas éstas como “espontáneas”, es decir, aleatorias.

Un ejemplo puede ilustrar el papel del azar y de los factores ambientales en genética, además de corroborar la vaciedad de la teoría sintética: un carácter tan importante como el sexo no depende de ningún gen ni de ninguna secuencia de ADN. En el gusano Bonellia viridis el sexo depende del sitio en el que se depositen las larvas (270); en las tortugas de la temperatura de incubación (271); y en los seres humanos de una determinada combinación de los cromosomas. Uno de los pares de los cromosomas homólogos, el que determina el sexo del individuo, es distinto al resto. Las hembras sólo producen gametos (óvulos) portadores de cromosomas del tipo X, mientras que los varones producen la mitad de gametos (espermatozoides) X y la otra mitad de gametos Y. La probabilidad de que al unirse los gametos resulte una combinación XX (hembra) o XY (varón) es la misma que la de lanzar una moneda al aire: el 50 por ciento. Ésa es la teoría. Sin embargo, si al lanzar una moneda al aire no encontráramos aproximadamente el mismo número de caras que de cruces, sospecharíamos que la moneda no es simétrica. Pues bien, desde hace siglos se sabe que nacen más niños que niñas, por lo que concurren factores exteriores que modifican esa expectativa. Además, según un estudio que publicó la revista Biology Letters en abril de 2009, cuanto más cerca del Ecuador viven las poblaciones, más se reducen las diferencias entre nacimientos masculinos y femeninos. La investigación fue dirigida por Kristen Navara, de la Universidad de Georgia, quien analizó los datos oficiales desde 1997 hasta 2006 procedentes de 202 países y publicados en el World Factbook de la CIA. La conclusión es que la población que vive en los trópicos tiene más niñas en comparación con la que vive en otras partes del mundo. La media de hembras nacidas en el mundo es de 487 por cada mil nacimientos. Sin embargo, en las latitudes tropicales, por ejemplo en el África subsahariana, se eleva hasta 492 niñas por cada mil nacimientos. Navara considera que podría deberse al tiempo más cálido o a los días más largos. Es posible que los gametos humanos se vean afectados por la luz ambiental y la temperatura, y que estas variables favorezcan a uno u otro género en función de la latitud. De hecho, estudios previos en mamíferos pequeños como hámsteres siberianos revelan que estos animales tienen más hijos varones durante los meses de invierno (272).

Esas consideraciones se pueden extender a las mutaciones, que se han vuelto contra los mendelistas al convertirse en lo contrario de lo que fueron en su origen, en una teoría de la contaminación ambiental. A fin de cuentas lo que Mendel denominó “factores” son secuencias de ADN, una molécula de ácido nucleico que puede ser sintetizada y alterada por numerosos fenómenos químicos, físicos y biológicos de tipos muy diversos. No hay automutaciones; las mutaciones tienen un origen externo al ácido nucleico. Desde 1925 las experiencias al respecto se han ido acumulando con el paso del tiempo. Dos años después Muller lo confirmaba en Estados Unidos y doce años después, Teissier y L’Heritier repitieron la experiencia en Francia con el gas carbónico. La interacción ambiental se ha demostrado no sólo con las radiaciones (naturales y artificiales) sino con las sustancias químicas ingeridas en los alimentos o en el aire que respiramos y con los virus o bacterias con los que el organismo entra en contacto. La nómina agentes mutágenos es considerable: de 10.000 sustancias químicas que se han estudiado, cerca de 1.000 son mutágenas. Las bases nitrogenadas del ADN absorben luz a una longitud de onda máxima de 260 nanometros, que es la propia de los rayos ultravioleta, de modo que este tipo de radiaciones son mutagénicas. Como muchos compuestos químicos, las bases tienden a oxidarse, produciendo un compuesto molecular distinto. Por ejemplo, la guanina se transforma en 8-oxoG de modo que en lugar de unirse a la citosina de la otra hebra que la complementa en la misma molécula de ADN, se une a la timina, transmitiéndose a la siguiente generación celular. La oxidación de la guanina no se produce al azar a lo largo de cualquier punto de la molécula de ADN sino concentrada en ciertas secuencias específicas.

La acción de los agentes mutágenos se manifiesta por dos vías diferentes: directamente sobre el ácido nucleico e indirectamente a través de la metabolización del propio organismo (promutágeno). Las mutaciones no son, en realidad, más que una parte de los cambios que puede experimentar un genoma por efecto de las circunstancias ambientales. En ocasiones no es necesario siquiera que la composición del ADN o de sus bases se modifique sino que basta con que se modifiquen las proteínas que los envuelven. Así, además de oxidarse, las bases también se metilan y las proteínas que las rodean en el núcleo celular se acetilan, modificando su funcionamiento. Según Dubinin, “el surgimiento de las mutaciones está determinado por las variaciones de las moléculas de DNA, las cuales surgen sobre la base de las alteraciones en el metabolismo del organismo y bajo la influencia directa de los factores del medio ambiente” (273). Lo interesante es destacar lo que hoy es obvio, a saber:

— las mutaciones génicas tienen una causa o varias, bien conocidas o que pueden llegarse a conocer
— son disfuncionales, es decir, provocan enfermedades, malformaciones, abortos e incluso la muerte
— los mutantes tienen una capacidad reproductora muy débil.

En una mutación pueden concurrir varias causas difíciles de individualizar, pero no se puede decir que ocurra al azar. Cuando los genetistas invocan el azar lo que quieren decir es que no conocen las causas de la mutación, es decir, expresan lo que a su ciencia le queda aún por recorrer. Que una causa no se conozca no significa que no se pueda llegar a conocer. Sin embargo, basta rastrear la evolución del concepto de mutación para comprobar que las observaciones al respecto se han multiplicado progresivamente: cada vez se conocen más, se conocen mejor y sus causas están más determinadas, hasta el punto de que la radiobiología y la toxicogenética se han convertido en disciplinas con sustantividad propia, que no se han desarrollado para hablar del azar precisamente. Desde hace un siglo (274) es sabido que se pueden utilizar radiaciones ionizantes como esterilizante o desinfectante, una práctica cuya aplicación a los alimentos se ha regulado recientemente por normas jurídicas de la Unión Europea. Los legisladores, pues, no deben confiar en el carácter aleatorio de unas radiaciones capaces de acabar con las bacterias de los alimentos pero no con los alimentos mismos.

Debido al efecto mórbido de las mutaciones, los dispositivos génicos tienen su propia capacidad de autoprotección, que se refuerza a medida que se sube en la escala de las especies. En el hombre no se conocen mutaciones viables y su número no alcanza la tasa del dos por ciento de mutaciones naturales de la mosca. No hay humanos mutantes porque los que tienen un ADN diferente no se desarrollan o no se reproducen. Paradójicamente puede decirse que es en las mutaciones donde no aparece la herencia de los caracteres adquiridos. Ahora bien, cuando los seres vivos mutantes son viables, sus alteraciones génicas se transmiten hereditariamente, es decir, son un caso de herencia de los caracteres adquiridos.

Las radiaciones son un ejemplo tan claro de esa influencia que ha aparecido una disciplina, que se dedica a estudiarla, bien a fin de determinar sus efectos patológicos, bien como terapia para destruir células tumorales. Son agentes mutágenos que inciden tanto sobre los elementos vitales de la célula como sobre alguno de sus componentes, como el agua. En este último caso, la radiación ioniza el átomo de agua, crea radicales libres H y OH que a su vez crean agua oxigenada (peróxido de hidrógeno), que es un oxidante. En el interior de las células tanto los radicales libres como los oxidantes rompen los enlaces de las moléculas, alterando su naturaleza química. Las consecuencias varían en función del tipo de moléculas afectadas. Desde 1906 la ley Bergonié-Tribondeau expone que las radiaciones afectan a los mecanismos reproductores más que a cualesquiera otros. El plasma germinal, por consiguiente, no sólo no es resistente sino que es menos resistente que el cuerpo a ciertas acciones ambientales. Existen radiaciones que no afectan a las células hasta que éstas se dividen, y entonces sucede que:

— muere al dividirse (muerte mitótica)
— se divide de manera incontrolada
— impide la división y crea esterilidad
— no afecta a la célula directamente sino únicamente a su descendencia

Buena prueba de que las radiaciones no provocan mutaciones al azar es que, hasta cierto punto, se pueden controlar. Así, está comprobado que la irradiación de los tejidos impide su regeneración, de manera que si se irradia un animal con capacidad de regeneración, como una lombriz por ejemplo, y luego se trocea, no se regenera. Pero si se cubre una parte de ella, sí se puede regenerar el animal completo a partir de ahí, incluso aunque la amputación tenga lugar en una parte alejada de la zona irradiada, lo cual indica que las células no irradiadas se desplazan para regenerar el resto del cuerpo. También se puede concluir sosteniendo que la irradiación sólo impide la regeneración de aquellas células a las que afecta (275).

La ley Bergonié-Tribondeau se puede expresar mediante una escala de sensibilidad que clasificaría a las moléculas celulares de la forma siguiente: ADN > ARN > proteínas. La sensibilidad genómica a las radiaciones es mil veces superior que la del citoplasma. Lo que Muller demostró en 1927 es que no existía umbral mínimo para las mutaciones genéticas inducidas por rayos X. Prácticamente cualquier dosis es lesiva, influye sobre el genoma. A pesar de ello los manuales de genética afirman precisamente todo lo contrario, una supuesta capacidad de resistencia del genoma ante las modificaciones ambientales: “El genotipo es una característica de un organismo individual esencialmente fija; permanece constante a lo largo de la vida y es prácticamente inmodificable por efectos ambientales” (276).

Los efectos de las radiaciones se aprecian a largo plazo, no de manera inmediata y, por tanto, no crean alarma. Se transmiten a las generaciones sucesivas de quien las padece; son ellas las que experimentan sus consecuencias. En abril de 2009 un grupo de investigadores suecos utilizaron la incidencia de la contaminación atómica ambiental sobre el ADN para fechar la regeneración de las células cardiacas. Las pruebas con bombas nucleares realizadas en la posguerra tuvieron como resultado la producción masiva de isótopos radiactivos de carbono-14 que se trasladaron desde la atmósfera a las células de todos los seres vivos, alcanzando también al ADN. Éste integra el carbono-14 en una concentración que se corresponde exactamente con el nivel atmosférico del momento en el que aparece la célula de la que forma parte. Midiendo la presencia de carbono-14 en el ADN de las células es posible saber la fecha en la que se generaron y, de este modo, inferir retrospectivamente la antigüedad de las mismas así como la renovación que se debe haber producido. Naturalmente el ADN de cada célula tiene unos niveles diferentes de carbono-14 que dependen de los niveles de contaminación radiactiva ambiental.

Es difícil poner un ejemplo más claro de herencia de los caracteres adquiridos. No hay demostración más dramática que las secuelas de los bombardeos atómicos de Hiroshima y Nagasaki sobre los supervivientes y su descendencia. En la guerra de Vietnam, los estadounidenses bombardearon a la población con el “agente naranja” que contenía dioxinas, una sustancia tóxica que ha pasado de generación en generación provocando la aparición de tumores, leucemias linfáticas, anormalidades fetales y alteraciones del sistema nervioso en tres millones de vietnamitas. Todo eso a pesar de que la herencia de los caracteres adquiridos no está demostrada. ¿Qué hará falta para demostrarlo?

ÍNDICE
(1) Caza de brujas en la biología (11) La técnica de vernalización
(2) Creced y multiplicaos (12) Cuando los faraones practicaban el incesto
(3) La maldición lamarckista (13) Los supuestos fracasos agrícolas de la URSS
(4) La ideología micromerista (14) Los lysenkistas y el desarrollo de la genética
(5) Regreso al planeta de los simios (15) Timofeiev-Ressovski, un genetista en el gulag
(6) El espejo del alma (16) El linchamiento de un científico descalzo
(7) La teoría sintética de Rockefeller (17) Los peones de Rockefeller en París
(8) La teoría de las mutaciones (18) La genética después de Lysenko
(9) Tres tendencias en la genética soviética (19) Notas
(10) Un campesino humilde en la Academia (20) Otra bibliografía es posible

¿Te gusta? pincha para compartir en tus redes sociales….

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *