2013-03-26

Ni simple, ni complejo... solo preciso —William Dembski, Jonathan Wells


Hasta el momento, hemos discutido en términos generales las barreras probabilísticas que se interponen en la evolución de los sistemas bioquímicos irreduciblemente complejos. ¿Se pueden colocar números precisos a estas probabilidades? Aunque los críticos del diseño inteligente a veces afirman que esto es imposible, su escepticismo es infundado. Ciertamente, es más difícil asignar probabilidades a la evolución de estructuras biológicas que a las secuencias que surgen de echar surte con una moneda. Las probabilidades involucradas en el tiro de la moneda son fáciles de calcular; aquellas implicadas en el mundo biológico real no lo son. Pero la ciencia trabaja para resolver problemas difíciles, y estimar las probabilidades involucradas en la evolución de estructuras biológicas es un buen desafío para ella.

Al estimar las probabilidades que aparecen en la inecuación de origen [véase haciéndo click aquí], es importante elegir sistemas manejables (es decir, sistemas que tengan una complejidad accesible para nuestros métodos científicos). De hecho, uno podría afirmar que los Darwinistas se han ocultado tradicionalmente detrás de las complejidades de los sistemas biológicos a fin de salvar su teoría del escrutinio crítico. Un mito muy retenido por la comunidad biológica es que la teoría de Darwin ha explicado la evolución del ojo de los vertebrados. De hecho, la teoría no ha hecho siquiera nada parecido.

En lugar de eso, los Darwinistas han identificado diversos ojos que exhiben niveles variables de complejidad, partiendo del ojo vertebrado en su extremo más alto de complejidad hasta su extremo más bajo, en donde consiste solo de un mero receptor sensitivo a la luz. Pero solamente identificar ojos de variada complejidad y luego dibujar flechas desde la menor complejidad del ojo hacia la mayor a fin de establecer relaciones evolutivas no explica cómo los ojos evolucionaron realmente (1). Las brechas entre los ojos de diferente complejidad se vuelven grietas insuperables una vez que uno se empieza a preguntar sobre los cambios reales en los genes, el desarrollo embriológico, y las conexiones neurales que han tomado lugar en el ojo vertebrado que ha “evolucionado” de precursores más simples. Aún, en lugar de reconocer que estas brechas constituyen una evidencia que desconfirma la teoría, los Darwinistas toman una posición de invencibilidad: “Prueben que estamos errados”, dicen ellos. “Demuestren que no sucedió de esta forma”. De este modo, desviando al peso de la evidencia, la teoría de Darwin triunfa todo el tiempo sobre el resto de las teorías alternativas.

El gran golpe de Michael Behe fue identificar una clase de sistemas biológicos simples para los cuales es fácil de determinar las barreras probabilísticas que estos deben superar para poder evolucionar. Con el ojo humano, uno tiene que tratar con millones de células, especialmente cuando uno factorea también a la maquinaria neural, (ejemplo, la corteza visual) que necesita complementarlo. Pero con los sistemas bioquímicos irreduciblemente complejos, uno busca a las estructuras moleculares que se encuentran en el interior de la célula, y que residen en el umbral de la vida —debajo de este umbral están los ladrillos químicos que constituyen a la biología. El flagelo bacteriano, por ejemplo, es una máquina molecular que consiste de proteínas. Las proteínas consisten a su vez de aminoácidos, los cuales pueden surgir incluso en ausencia de vida. Las proteínas en sí mismas, como secuencias funcionales de aminoácidos, solo se han encontrado en contextos celulares, y por consiguiente en presencia de vida.

Pero aún con los sistemas irreduciblemente complejos (muchos más simples que cada una de las células de la retina, y qué decir del ojo en sí mismo), las complejidades rápidamente se vuelven densas de determinar. El flagelo bacteriano consiste de solo cuarenta proteínas distintas, pero estas proteínas se repiten, en algunos casos, cientos o miles de veces. El filamento del flagelo, por ejemplo, consiste de miles de sub-unidades proteicas (es decir, copias de una proteína determinada). El flagelo bacteriano es en sí mismo un conjunto vastamente complejo de muchos miles de partes proteicas.

Por consiguiente, estimar las probabilidades de la evolución del flagelo bacteriano se vuelve difícil, especialmente porque los evolucionistas nunca identifican con detalle las vías evolutivas para tales sistemas bioquímicos irreduciblemente complejos. Con las vías lo suficientemente detalladas a disposición, las probabilidades a lo largo de cada etapa pueden, en principio, ser estimadas. Sin embargo, a ausencia de tales explicaciones nos limita a consideraciones probabilísticas más generales a la hora de determinar la improbabilidad de la evolución del flagelo. Por ejemplo, un flagelo en evolución debe superar el problema de la compatibilidad de interfase, en la cual las proteínas novedosas a la estructura deben encajar de la forma adecuada para que sean incorporadas exitosamente y la evolución tenga lugar.

Al estimar las probabilidades para la evolución de sistemas bioquímicos a través de un proceso Darwiniano, necesitamos, por lo tanto, analizar estructuras aún más simples que el flagelo. El objetivo del estudio ahora es la probabilidad de que evolucionen proteínas individuales. En términos de la disparidad de origen, esto significa abordar la probabilidad de la disponibilidad (es decir, la probabilidad de que las proteínas individuales se encuentren disponibles para que recién puedan ser incluidas en un sistema irreduciblemente complejo en evolución) y demostrar de que la tal es pequeña. Sin embargo, esta investigación debería ser hecha con las proteínas del flagelo bacteriano o con aquellas de otras máquinas proteicas irreduciblemente complejas (2). Como consecuencia, no será difícil hacer estimaciones de la probabilidad de la evolución del flagelo y otros sistemas irreduciblemente complejos.

No obstante, los cálculos complejos de la probabilidad de evolución de ciertas proteínas individuales si se encuentran disponibles. Las proteínas residen justo en el nivel de complejidad correcto; es simple determinar su probabilidad de evolucionar por un proceso Darwiniano, al menos en algunos casos. Sin embargo, hacer correctamente esta determinación requiere cuidado. Suponga que existan proteínas que evolucionan en otras proteínas (su evolución se encuentra mediada por cambios genéticos en los genes que codifican tales proteínas). Lo que determina su capacidad de evolucionar no es simplemente su especificidad dentro de todas las posibles secuencias de aminoácidos, sino también y más importante, el grado de aislamiento que proteínas de una función pueden llegar a tener de aquellas otras proteínas que tienen otras funciones.

A fin de ilustrar la capacidad evolutiva de las proteínas, imagínelas como si se tratasen de oraciones en inglés. Ambas emplean un alfabeto fijo: en el caso de las proteínas, veinte aminoácidos levógiros; en el caso de las oraciones en inglés, veintiséis letras  (es conveniente añadir también añadir el ESPACIO).

Para hacer evolucionar una proteína en otra a través de un proceso Darwiniano, ciertos cambios modestos de aminoácidos deben transformar gradualmente una proteína en otra de tal manera que cada intermediario a lo largo del proceso no solo tenga la misma secuencia de aminoácidos como intermediario precursor y sucesor, sino que también se pliegue adecuadamente y tenga, por consiguiente, una función biológica. De la misma forma, hacer evolucionar una oración en inglés a través de un proceso Darwiniano requiere cambios modestos en las letras que deben transformar gradualmente una oración en otra tal que cada intermediario a lo largo del camino no solo tenga la misma secuencia de letras como su intermediario precursor y predecesor, sino que también se una oración en inglés llena de significado.

Considere, por ejemplo, la “evolución” de THE CAT SAT ON THE MAT [El gato posado sobre la alfombra]. Como estamos modelando a la evolución Darwiniana, esta secuencia debería evolucionar gradualmente. Por definición, digamos que una simple letra o espacio puede ser añadido, quitado o cambiado en una oración dada, durante cada etapa evolutiva. Este requerimiento asegura que la evolución de las oraciones sea gradual. Pero el gradualismo del proceso evolutivo no es suficiente. Como estamos modelando a la evolución Darwiniana, cada intermediario también debe preservar su significado (en biología, esto corresponde a la preservación de la función) (43). Por lo tanto, la evolución de THE CAT SAT ON THE MAT no puede volverse una oración incoherente en ningún punto de su evolución.  Lo siguiente es un posible camino evolutivo comenzando desde la oración inicial (note que los caracteres alterados o insertados se encuentran subrayados, mientras que los caracteres que se pierden están indicados con una línea subyacente a un espacio vacío):

THE CAT SAT ON THE MAT                        [El gato posado sobre la alfombra]
THE CATS SAT ON THE MAT                  [Los gatos posados sobre la alfombra]
THE CATS EAT ON THE MAT                    [Los gatos comen sobre la alfombra]
THE CATS BEAT ON THE MAT                   [Los gatos sobrepasan la alfombra]
THE BATS BEAT ON THE MAT       [Los murciélagos sobrepasan la alfombra]
THE BATS BEAT ON THE BAT       [Los murciélagos sobrepasan al murcielago]
THE BATS BEAT ON THE BOAT              [Los murciélagos sobrepasan al bote]

THE BATS   EAT ON THE BOAT              [Los murciélagos comen sobre el bote]

THE BASS EAT ON THE BOAT                              [La perca come sobre el bote]

THE BOSS EAT ON THE BOAT                         [El capitán come sobre el barco]

¿Que conclusión sacamos con este ejemplo? ? ¿Puede evolucionar THE CAT SAT ON THE MAT? La capacidad de evolucionar es una cuestión relativa, asi que un simple sí o no, no responderá esta pregunta de forma adecuada. Dados los cambios permitidos en cada etapa (es decir, adición, deleción, o alteración de un carácter), es evidente que uno puede hacer evolucionar oraciones que terminen aportando un significado absolutamente diferente a la de la original. Pero todas las oraciones en inglés con significado ¿son evolucionables a través de cambios graduales en la secuencia de otros intermediarios con significado, a partir de una secuencia original? O, como un Darwinista puede llegar a pensar, ¿Es THE CAT SAT ON THE MAT el ancestro común para todas las otras oraciones en inglés? Esto parece improbable, aún a pesar de que el análisis para verificar esta afirmación todavía no está hecho. Para hacer esto se requeriría de un análisis por computadora que tome la oración en original y la pase por todas las vías evolutivas posibles que sean consistentes con los cambios permisibles en cada etapa evolutiva. Además, se requeriría un par de ojos humanos que garanticen que el significado sea preservado durante cada etapa evolutiva (4).

Remplace “significado” por “función,” y evolución de la “oraciones en inglés” por “evolución de la proteínas”. ¿Cuán evolucionables son las proteínas? Es bien sabido que las proteínas toleran sustituciones numerosas en los aminoácidos (5). De hecho, son raros los casos en los que el cambio en un aminoácido desorganiza una función. Esto es así porque lo que realmente determina la función de una proteína es su forma global (conocida también como su estructura terciaria), y muchas secuencias diferentes de aminoácidos son compatibles con la misma forma. Por lo tanto, la forma y función de una proteína no pueden reducirse a su secuencia precisa de aminoácidos (conocida como la estructura primaria de la proteína) ni a su estructura secundaria.

La forma y función de una proteína son una consecuencia de cómo esta se encuentra plegada, y aquello que estabiliza al pliegue es el patrón de interacciones que existe entre los aminoácidos, que es lo suficientemente favorable como para sujetar a la estructura por sí misma. Además, es posible llegar de distintas formas al mismo patrón de interacciones favorables. Asi que, en principio, las proteínas pueden ser altamente evolucionables en su estructura primaria, pero completamente incapaces de evolucionar en su estructura terciaria. (Esto se asemejaría a una secuencia de letras, como la de THE CAT SAT ON THE MAT, que cambia radicalmente a través de etapas pequeñas y numerosas, reteniendo su significado en cada etapa). Como la estructura terciaria es la que determina la función biológica, tal evolución puede llegara a ser inefectiva, no produciendo estructuras ni funciones nuevas y dando a la selección natural nada para seleccionar.

La evolución de las proteínas ¿Siempre es así? No. Existe evidencia de que algunos ciertos dominios de algunas proteínas (es decir, las regiones plegadas dentro de una proteína), en el caso de que sean pequeños, pueden evolucionar resultando en nuevos pliegues e induciendo nuevas funciones en la proteína. Por ejemplo, la investigación de Sebastian Meier y sus colaboradores acerca de un dominio proteico muy corto (alrededor de 25 residuos) demostró que con el simple cambio de un aminoácido se podría convertir a la proteína en una estructura nueva (7). Pero este ejemplo parece ser excepcional. En este caso, el cambio de un aminoácido alteró un puente disulfuro, el cual es mucho más fuerte que los puentes de hidrógeno, típicos de muchas proteínas. Además, un polipeptido de 25 residuos de aminoácidos es de tal manera corto que no puede, como muchas proteínas si, estabilizarse por sí mismo a través de una interacción hidrofóbica (es decir, aquellos aminoácidos en una proteína que repelen el agua y se asocian el uno con el otro).

El plegamiento adquiere dificultad y complejidad en aquellas proteínas que consisten en largas cadenas de aminoácidos. Así como plegar un robot satélite dándole la forma de una bola, para luego ser colocado dentro de un cohete, existen ciertos movimientos claves que deben ocurrir en una secuencia particular para plegar una cadena de aminoácidos con el fin de darle la configuración correcta. Por consiguiente, no es sorprendente que proteínas grandes con frecuencia precisen de asistencia (de otras proteínas conocidas como chaperonas) para plegarse. Por otro lado, las proteínas pequeñas son más simples de doblar. En lugar de necesitar que sección tras sección sea plegada en una secuencia particular, una proteína corta colapsa tan fácilmente que el orden de los eventos no es tan importante. Por consiguiente, es interesante que Meier y sus colaboradores hayan encontrado la forma de modificar el plegamiento de  una secuencia de aminoácidos muy corta con solo cambiar un único residuo, pero no justifica generalizar este resultado aplicándolo a las proteínas grandes. (8)



 Autores: William Dembski -Tiene un Ph.D. en filosofía (Universidad de Illions en Chicago) y un Ph.D. en matematica (Universidad de Chicago). Es uno de los principales teóricos del Diseño Inteligente y ha escrito varios libros sobre la temática. Es autor del primer libro del Diseño Inteligente publicado por una editorial universitaria renombrada:The Design Inference: Elimitating Chance Through Small Probabilities. (Cambridge University Press, 1998). Es investigador del Discovery Institute.

Jonathan Wells - Tiene un Ph.D. en biología celular y molecular de la Universidad de California en Berkeley. Actualmente es uno de los principales investigadores del Discovery Institute.


Traductor: Daniel Alonso - Estudia Licenciatura en Ciencias Biológicas en la UNT, Argentina.


De: Dembski, W.; Wells J. (2008) the Design of Life: Discovering Signs of Intelligence in Biological Systems, The Foundation for Thought and Ethics, Dallas, p. 194-198



REFERENCIAS


1) Vea Evolution: The Trumph of an Idea, de Carl Zimmer (New York: HarperCollins, 2001). En la tapa de este libro se encuentran representados ojos de complejidad variada. Ni la tapa de este libro, ni el libro y ni siquiera la comunidad Darwiniana entera nos han provisto de una explicación detallada y testeable acerca de cómo alguno de estos ojos pudo haber evolucionado por procesos Darwinianos a partir de precursores simples.


2) Note que con el solo hecho de señalar que las proteínas del flagelo son similares a otras proteínas que cumplen otras funciones, no se hace más plausible a la evolución, y mucho menos se resuelve el problema de la disponibilidad (Pdisp) de estas proteínas. Para un ejemplo de este razonamiento defectuoso, vea “Del Origen de las Especies al Origen del Flagelo Bacteriano,” de M. J. Pallen y N. J. Matzke, publicado en Nature Reviews Microbiology 4(10) (2006): 784-790. La pregunta problemática es cómo es que estas proteínas similares aparecieron por primera vez. Este es el punto que la Pdisp cuestiona, y es justamente esto lo que las referencias convencionales de la evolución biológica dejan sin responder.


3) De hecho, si toda la evolución se basase en la preservación del significado/función, terminaríamos hablando de una evolución neutra más que Darwiniana. En términos estrictos, la evolución Darwiniana debe mejorar continuamente el significado/función y no meramente mantener su status quo. Aún así, una condición necesaria para mejorar su significado/función es preservarlo. Por más acerca de evolución neutra, vea Motoo Kimura, The Neutral Theory of Molecular Evolution (Cambridge: Cambridge University Pres, 1983).


4) Las computadoras están limitadas lingüísticamente. En efecto, el procesamiento del lenguaje natural no demuestra alguna habilidad de corroborar cuales oraciones tienen significado, y cuales carecen de él.


5) Como lo señala Douglas Axe, “Los estudios de mutagénesis y alineamiento de secuencias homologas han demostrado que la función de las proteínas es compatible típicamente con una variedad de residuos de aminoácidos que se encuentran en los sitos no-activos más externos”. Citado por Douglas D. Axe, “Extreme Fuctional Sensitivity to Conservative Amino Acid Changes on Enzyme Exteriors,” Journal of Molecular Biology 301 (2000): 585.


6) D. D. Axe, N. W. Foster, and A. R. Fersht, “A Search for single Substitutions That Eliminate Enzymatic Function in a Bacterial Ribonuclease,” Biochemistry 7 (20) (1998): 7157-7166.


7) Vea S. Meier, P. R. Jensen, C. N. David, J. Chapman, T. W. Holstein, S. Grzesiek, y S. Ozbek, “Continuous Molecular Evolution of Protein-Domain Structures by Single Amino Acid Changes,” Current Biology 17(2) (2007): 173-178. Meier et al. Se encuentra enfocado en los dominios ricos en cisteína, propios de proteínas que se encuentran en el nematocisto de los cnidarios. El comunicado de la prensa con respecto a este articulo es revelador: “Aquellas cuestiones referidas a los cambios que experimentan ciertas características complejas, tales como nuevas estructuras en las proteínas, llevan tiempo sin resolverse. Mientras que los proponentes de la teoría del diseño inteligente, como el científico estadounidense Michael Behe, rechazan la formación de estructuras proteicas nuevas y complejas vía mutaciones, y en pocas etapas, los biólogos evolucionistas han encontrado evidencia de que proteínas nuevas pueden formarse obviando formas transicionales que combinen las características nuevas con aquellas originales. Sin embargo y hasta el momento, esto solo se ha demostrado por la acumulación de mutaciones artificiales, las cuales son meras simulaciones del proceso evolutivo.” Al menos este comunicado indica que existe un debate genuino acerca de la evolución de las proteínas y de que el diseño inteligente juega un papel clave en este debate. Puede encontrar esta noticia en http://www.idw-online.de/de/news193184.


8) Las ideas de este párrafo derivan de un intercambio personal de correspondencia entre WmAD y Cornelius Hunter (1 de Febrero de 2007).

2013-03-16

Definiendo a la Complejidad Especificada —William Dembski


El término Complejidad Especificada tiene más de treinta años. Según mi conocimiento, Leslie Orgel, conocido por sus investigaciones sobre el origen de la vida, fue el primero en usarlo. La expresión apareció en su libro The Origins of Life, publicado en 1973, en donde él escribió, “Los organismos vivientes se distinguen por su complejidad especificada. Los cristales como el granito no califican como vivientes debido a su carencia de complejidad; mezclas azarosas de polímeros tampoco califican, por su carencia de especificidad”. Más recientemente, en su libro The Fifth Miracle, publicado en 1999, Paul Davies identifica a la complejidad especificada como la clave para resolver el problema del origen de la vida:

“Los organismos vivientes son misteriosos no por su complejidad per se, sino por su ajustada complejidad especificada. Para entender bien cómo la vida surgió de lo inanimado, no solo precisamos saber cómo es que llegó a concentrarse la información biológica, sino también como la información biológicamente útil vino a ser especificada”.

Sin embargo, ni Orgel ni Davies nos han aportado un cálculo analítico de la complejidad especificada. He provisto tal cálculo en The Design Inference (1998) y su continuación, No Free Lunch (2002). Aquí meramente lo tocaré de modo superficial. Orgel y Davies usaron el término complejidad especificada vagamente. En mi propia investigación lo he formalizado como un criterio estadístico para identificar los efectos de la inteligencia. La complejidad especificada, como lo desarrollo aquí, incorpora cinco ingredientes principales:

·        Una versión probabilística de la complejidad, aplicable a los eventos.
·        Patrones condicionalmente independientes.
·        Recursos probabilísticos, los cuales vienen en dos formas: replicacionales y especificacionales.
·        Una versión descriptiva de la complejidad, aplicable a los patrones.
·        Un límite probabilístico universal.

Echemos un breve vistazo.

Complejidad Probabilística. Se puede ver a la probabilidad como una forma de complejidad. A fin de entender esto, considere una cerradura con combinación. Cuando mayor sea la cantidad de combinaciones posibles de la cerradura, más complejo será el mecanismo y, consecuentemente, mayor la improbabilidad de que el mecanismo sea abierto por azar. Por ejemplo, una cerradura con combinación cuyo dial se encuentra numerado del cero al treintainueve y que debe ser girada en tres direcciones alternativas tendrá 64,000 (es decir, 40 x 40 x 40) combinaciones posibles. Este número ofrece una medida de la complejidad para la cerradura con combinación, lo que también corresponde a 1 en 64,000 de probabilidad de que la cerradura sea abierta por azar (asumiendo que no se tiene ningún conocimiento previo de la combinación correcta). Una cerradura con combinación más compleja cuyo dial se encuentra numerado desde el cero al noventainueve y que debe ser girada en cinco direcciones alternativas tendrá 10,000,000,000 (es decir, 100 x 100 x 100 x 100 x 100) combinaciones posibles y por lo tanto 1 en 10,000,000,000 de probabilidad de ser abierta por azar. Por consiguiente, la complejidad y la probabilidad varían inversamente: cuanto mayor la complejidad, menor la probabilidad. La complejidad en complejidad especificada se refiere a la improbabilidad.

Patrones condicionalmente independientes. Los patrones que en presencia de complejidad o improbabilidad implican a una inteligencia diseñadora deben ser independientes del evento cuyo diseño está en cuestión. Es crucial aquí que los patrones no sean impuestos artificialmente sobre los eventos luego del hecho. Por ejemplo, si un arquero dispara flechas a un muro y luego pintamos blancos alrededor de las flechas de tal manera que estas queden clavadas en el círculo central, estamos imponiendo un patrón después del hecho. Cualquier patrón como este no es independiente de la trayectoria de la flecha. Por otro lado, si los blancos son colocados por adelantado (“especificados”) y luego el arquero les dispara con precisión, sabemos que no fue por azar sino más bien por diseño (apercibidos, por supuesto, de que dar en el blanco es lo suficientemente improbable). La forma de caracterizar esta independencia de patrones es a través de una noción probabilística de la independencia condicional. Un patrón es condicionalmente independiente de un evento si al sumar nuestro conocimiento del patrón a una hipótesis de azar no se altera la probabilidad del evento bajo esta hipótesis. Lo especificado de complejidad especificada hace referencia a tales patrones condicionalmente independientes. Estos son las especificaciones.

Recursos probabilísticos. Los recursos probabilísticos hacen referencia al número de oportunidades factibles que tiene un evento de ocurrir o ser especificado. Un evento aparentemente improbable puede convertirse en uno absolutamente probable una vez que se factorean los suficientes recursos probabilísticos. Por otro lado, tal evento puede permanecer improbable aún luego de que todos los recursos probabilísticos disponibles hayan sido factoreados. Piense en intentar repartirse a usted mismo una escalera flor (una mano de póker con el As, Rey, Reina, Jota y 10, todos del mismo palo). Dependiendo de cuantas manos pueda repartir, tal suceso, el cual es por sí mismo absolutamente improbable, puede permanecer improbable o volverse absolutamente probable. Si usted solo puede repartirse unas pocas decenas de manos, entonces con toda probabilidad usted no verá una escalera flor. Pero si puede repartirse a si mismo millones de manos, entonces será probable que la reúna.

Los recursos probabilísticos vienen en dos variedades: replicacionales y especificacionales. Los recursos replicacionales hacen referencia al número de oportunidades de ocurrencia de un evento. A fin de entender en que se encuentran basados estos dos tipos de recursos probabilísticos, imagine un gran muro con N blancos pintados, de igual medida y que no se encuentren superpuestos, y M flechas en su aljaba. Digamos que su probabilidad de darle por azar a cualquiera de estos blancos, tomados individualmente, con una única flecha es p. Entonces la probabilidad de acertar por azar a cualquiera de esos N blancos, tomados colectivamente, con una única flecha queda restringida por Np (es decir, N y p multiplicados); y la probabilidad de ensartar por azar a cualquiera de esos N blancos con al menos una de sus M flechas es limitada por MNp (es decir, M, N y p multiplicados); En este caso, el numero de recursos replicacionales corresponde a M (el número de flechas en su aljaba), y el número total de recursos probabilísticos corresponden al producto MN. Para un evento especificado de probabilidad p sea razonablemente atribuible al azar, el numero MNp no debe ser pequeño.

Complejidad Descriptiva. Por el hecho de ser patrones, las especificaciones exhiben varios niveles de complejidad. El grado de complejidad de una especificación determinará cuantos recursos especificacionales deberán ser factoreados cuando el indicador del nivel de improbabilidad requerido excluya al azar (vea el punto anterior). Cuanto más complejo sea el patrón, más recursos especificacionales deberán ser factoreados. Los detalles son técnicos e implican una generalización de lo que los matemáticos denominan la complejidad de Kolmogorov. No obstante, la intuición básica es simple. El bajo nivel de complejidad descriptiva es importante a la hora de detectar diseño ya que asegura que el evento cuyo diseño está en cuestión no fue descripto después del hecho y luego disfrazado, sino que ha sido descripto antes del hecho.

A fin de entender en que se basa esto, considere las dos secuencias siguientes resultantes de echar suerte con una moneda diez veces seguidas: CCCCCCCCCC y CCSCSSSCSC. ¿A cuál de estas dos estará más inclinado atribuir al azar? Ambas secuencias presentan la misma probabilidad, aproximadamente 1 en 1,000. No obstante, el patrón que especifica la primera secuencia es mucho más simple que el segundo. Para la primera secuencia el patrón puede ser especificado con la simple declaración “diez caras en una tanda”. Por otra parte, especificar el patrón de la segunda secuencia requiere una declaración relativamente larga, por ejemplo, “dos caras, luego seca, luego cara, luego seca tres veces, luego cara seguida de secas y caras”. Pienso a la complejidad descriptiva como una descripción de longitud mínima. 

Para que algo exhiba complejidad especificada debe tener baja complejidad descriptiva (como la secuencia CCCCCCCCCC, que consiste de diez caras en una tanda) y alta complejidad probabilística (es decir, que la probabilidad sea muy baja). Es la combinación de baja complejidad descriptiva (un patrón fácil de describir en un orden relativamente corto) con elevada complejidad probabilística (algo altamente improbable) lo que hace a la complejidad especificada un triangulador efectivo de inteligencia. Pero la importancia de la complejidad especificada no concluye aquí.

Además de su lugar crucial dentro de la inferencia del diseño, la complejidad especificada también ha estado implícita en gran parte de la literatura de la auto-organización, un campo que estudia cómo los sistemas complejos emergen a partir de la estructura y la dinámica de sus partes. Debido a que la complejidad especificada hace un balance de baja complejidad descriptiva junto con una alta complejidad probabilística, la complejidad especificada se sitúa en la frontera entre el orden y el caos, que comúnmente es referida como el “límite del caos”. El problema con el puro orden (baja complejidad descriptiva) es que es predecible y poco interesante. Aquí un ejemplo sería un cristal que se dispone repitiendo el mismo patrón simple desde el comienzo hasta el final. El problema con el puro caos (alta complejidad probabilística) es que es desordenado y carente de interés. (Ningún patrón significativo emerge del puro caos. Aquí un ejemplo lo da la disposición de los escombros esparcidos por un tornado o una avalancha). Más bien, es justo en el límite del caos en donde las cosas interesantes suceden. Este es el lugar en donde se encuentra ubicada la complejidad especificada.

Limite probabilístico universal. En el universo observable, los recursos probabilísticos son limitados. Los científicos estiman que, dentro del universo físico conocido, existen alrededor de 1080 partículas elementales. Además, las propiedades de la materia son tales que las transiciones desde un estado físico a otro no pueden ocurrir en una tasa más rápida que 1045 veces por segundo. Esta frecuencia corresponde al tiempo de Planck, el cual constituye la unidad física de tiempo más pequeña. Finalmente, el universo en si mismo tiene una edad aproximada de 1025 segundos (asumiendo que el universo tiene entre 10 y 20 mil millones de años). Por consiguiente, si asumimos que cualquier especificación de un evento dentro del universo físico conocido requiere por lo menos una partícula elemental y que tales especificaciones no se generan más rápido que el tiempo de planck, entonces las constantes cosmológicas implican que el número total de eventos especificados a lo largo de la historia cósmica no exceden 1080 x 1045 x 1025 = 10150. Como consecuencia, cualquier evento especificado de probabilidad menor a 1 en 10150 quedará improbable, aun después de que todos los recursos probabilísticos concebibles del universo hayan sido factoredos. Por consiguiente, una probabilidad de 1 en 10150 representa el límite probabilístico universal.  (Por detalles que justifican este límite probabilístico universal, vea mi libro The Design Inference). Un límite probabilístico universal es impenetrable a cualquier cantidad de recursos probabilísticos que se coloquen contra este. En efecto, todos los recursos probabilísticos del universo físico conocido no pueden conspirar entre sí para dejar como probable un evento cuya probabilidad es menor que este límite probabilístico universal.

El limite probabilístico universal de 1 en 10150 es el más conservador dentro de la literatura. El matemático francés Emile Borel propuso 1 en 1050 como limite probabilístico universal, bajo el cual el azar puede ser excluido definitivamente. (Esto es, cualquier evento especificado de tal manera improbable que no pueda ser atribuido al azar). Los criptógrafos determinan la seguridad de los criptosistemas en términos de cualquier ataque que emplee todos los recursos probabilísticos que estén disponibles en el universo a fin de sabotear al criptosistema por azar. En su informe sobre el rol de la criptografía en proveer seguridad a la información, el National Research Council dejó en 1 en 1094 su límite probabilístico universal, a fin de garantizar la seguridad de los criptosistemas contra cualquier ataque basado en el azar. (Vea el libro Cryptography´s Role in Securing the Information Society, de Kenneth Dam y Herbert Lin). El cientifico informático Seth Lloyd dejo en 10120 como el máximo número de operaciones bit que el universo podría haber realizado a lo largo de toda su historia (Physical Review, 10 de junio de 2002). Este número corresponde a un límite probabilístico universal de 1 en 10120. Stuart Kauffman en su libro más reciente, Investigations (2000), llega a numeros similares.

Para que algo exhiba complejidad especificada debe, por consiguiente, coincidir con un patrón condicionalmente independiente (es decir, una especificación) de baja complejidad descriptiva, y en donde el evento que corresponde a este patrón presenta una probabilidad de ocurrencia menor al límite probabilístico universal —y por lo tanto exhibe complejidad probabilística elevada. La complejidad especificada es extensamente usada como un criterio para detectar diseño. Por ejemplo, cuando los investigadores del SETI (Búsqueda de Inteligencia Extraterrestre) buscan señales de inteligencia provenientes del espacio exterior, ellos buscan complejidad especificada. (Recuerde la película Contact en la cual el SETI detecta un patrón inteligente en una señal captada desde el espacio exterior, en donde se observa una secuencia larga de números primos. Tal secuencia muestra complejidad especificada.)



Autor: William Dembski -Tiene un Ph.D. en filosofía (Universidad de Illions en Chicago) y un Ph.D. en matematica (Universidad de Chicago). Es uno de los principales teóricos del Diseño Inteligente y ha escrito varios libros sobre la temática. Es autor del primer libro del Diseño Inteligente publicado por una editorial universitaria renombrada: The Design Inference: Elimitating Chance Through Small Probabilities. (Cambridge University Press, 1998). Es investigador del Discovery Institute.


Traductor: Daniel Alonso - Estudia Licenciatura en Ciencias Biológicas en la UNT, Argentina.



Fuente:  Dembski, W. (2004) The Design Revolution: Answering The Toughest Questions About Intelligent Design, IVP Books, p. 81-86.







2013-03-15

El Diseño Inteligente ¿Precisa dar Cuenta de Algún Mecanismo? (PARTE I) —Mario A. Lopez


Uno de los cargos contra el diseño inteligente (DI) se relaciona a su supuesta falta de rigurosidad científica por no tener algún mecanismo al cual recurrir para hacer predicciones o para aplicar al desarrollo de la investigación científica. Consecuentemente, el no tener un mecanismo el DI no se presta a la falsificación, y de acuerdo al criterio de Popper, no califica como ciencia. Bien, el DI no tiene mecanismo. ¿Pero, es ciencia?

Isaac Newton, reconocido como el padre de la mecánica clásica, describió la ley de gravitación universal sin recurso al mecanismo de la misma, admitiendo:

“Hasta ahora he explicado los fenómenos de los cielos y de nuestro mar por la fuerza de gravedad, pero aún no he asignado a una causa a la gravedad.”

Aun, los mecanicistas del pasado como Isaac Newton no tomaban a los mecanismos mismos como algo independiente de un diseñador. Ellos sostenían la idea de que la naturaleza fue dotada con leyes y una orden por un ser inteligente:

“El sistema más bello del sol, planetas y cometas sólo podría proceder del juicio y dominio de un ser inteligente. Toda la variedad de objetos creados que representan el orden y la vida en el universo podría pasar sólo por el razonamiento deliberado de su creador original…”

La cosmovisión de los teóricos del diseño inteligente es similar a la de Newton, pero más moderna. Ellos proponen que el universo fue dotado con leyes ajustadas para permitir la vida, y sostienen que es posible distinguir patrones que implican al diseño intencional de aquellos que se forman a través de algún mecanismo. Las aportaciones científicas de sus propugnadores provienen de varios campos, así que los datos permiten hacer inferencias de diseño utilizando más de un tipo de razonamiento.

Efectivamente, la ciencia trabaja con varios criterios epistemológicos que delinean para nosotros el margen de lo que se puede inferir de los datos. Para ilustrar mi punto seguiré con tres procesos de razonamiento filosófico-científico:



En la ciencia, cada tipo de razonamiento es válido, aunque la conclusión no necesariamente lo sea. Este punto tiene que ver con los tipos de datos que se presentan para inferir alguna conclusión. Por ejemplo, la ciencia forense no determina sus conclusiones a través de un mecanismo o propiedad en el objeto bajo investigación, sino en la evidencia empírica que señala alguna clave (“datos proxy”), que en conjunto de otras claves se infiere o construye una hipótesis. Así, los científicos del la teoría del diseño inteligente hacen uso de varias claves o rasgos indicativos de alguna acción deliberada para inferir que la “apariencia” de diseño es realmente intencional y no el producto del azar o necesidad. Esta inferencia es abductiva porque los eventos bajo investigación se comparan como eventos antepasados cuyos efectos son idénticos al presente, y por lo tanto, la inferencia a la mejor explicación.

Regla: La información prescriptiva solo proviene de agentes inteligentes
Caso: La vida contiene información biológica que es prescriptiva
Abducción: La información biológica proviene de algún agente inteligente

Es importante notar, sin embargo, que la ciencia forense no solo depende de eventos que ya ocurrieron. La ciencia forense, tanto como otros tipos de ciencia histórica puede evaluar sus conclusiones reconstruyendo el evento bajo investigación. Es decir, utilizando razonamiento deductivo. El DI, como teoría, investiga patrones complejos en la naturaleza tomando en cuenta la presencia de un fondo de leyes y propiedades fisicoquímicas. La pregunta que se dirime de tales investigaciones es de que manera, si la hay, los mecanismos iluminan un trayecto de formación totalmente independiente del diseño intencional. Tomando algo del criterio de Darwin, reclamo: “Si se pudiese demostrar que existió un órgano complejo que pudo haber sido formado por modificaciones pequeñas, numerosas y sucesivas, la teoría del DI se destruiría por completo; pero no puedo encontrar ningún caso de esta clase.”

Claro, comprobar la ausencia de un mecanismo no comprueba al diseño intencional, por el contrario la presencia de un mecanismo si comprueba que no es necesario postular al diseño intencional. El diseño inteligente se teoriza sobre los rastros de acción deliberada, no a través de un mecanismo, sino a través de una acción consciente. Así,  el designio, como en cualquier otra acción deliberada, no hace uso de mecanismos (aunque se desarrolle entre ellos) para llevar a cabo su forma final. Más claro, cuando un agente inteligente actúa en la naturaleza, actúa en conjunto a las leyes que gobiernan a nuestro universo, y además, sus actos (diseños) se manifiestan como discontinuidades entre los procesos naturales en los cuales actúan. Así, lo que distingue al diseño inteligente de algún mecanismo es la arbitrariedad de las formas/patrones cuya estructura sirve a algún propósito final, no por alguna afinidad o ley sino por intención. Igualmente, el diseño intencional no puede trabajar independiente de lo material o de las leyes naturales, excepto en el curso de una instauración inicial en un vacío (tal como se plantea sobre el del origen del universo), porque el diseño se impone a la materia en la presencia de las leyes que la sostiene.

Ahora, un mecanismo se define como una técnica, proceso o sistema que logra algún resultado. Así, al explicar fenómenos naturales, se puede decir que el “mecanicismo” se utiliza como la doctrina materialista que sostiene que todo el universo está mecánicamente decidido a través de sus propiedades que, teóricamente, ofrecen una explicación completa de todo lo que existe.

“Podemos mirar el estado presente del universo como el efecto del pasado y la causa de su futuro. Se podría concebir un intelecto que en cualquier momento dado conociera todas las fuerzas que animan la naturaleza y las posiciones de los seres que la componen; si este intelecto fuera lo suficientemente vasto como para someter los datos a análisis, podría condensar en una simple fórmula el movimiento de los grandes cuerpos del universo y del átomo más ligero; para tal intelecto nada podría ser incierto y el futuro así como el pasado estarían frente sus ojos.”

Pierre Simon Laplace, Un ensayo filosófico sobre las probabilidades

Claro, los mecanismos no desasen por completo alguna inferencia de diseño intencional, solo que hacen superflua cualquier explicación que se extiende a tales inferencias. Es decir, si un agente inteligente utilizó un mecanismo, no importaría que tan evidente hiciera la presencia del diseño si el mecanismo ocupa el lugar del diseñador. Por esto, yo opino que sería un error tratar de atribuir algún mecanismo a la teoría del diseño inteligente. Como ya he dicho, un agente inteligente no necesita de algún mecanismo como instrumento para diseñar, solo requiere el extenso conocimiento de ingeniería y los materiales con que trabajar.

La evidencia que respalda a la inferencia del diseño inteligente es abrumadora. La especificación (criterio de Dembski) y la complejidad irreducible (criterio de Behe) son formas de arbitrariedad que son comunes en la naturaleza. Como ejemplo, el ADN no tiene ningún enlace químico entre las bases a lo largo del eje longitudinal en el centro de la hélice, precisamente donde la información se almacena y se lee. Este tipo de arbitrariedad informática no depende de alguna afinidad, ley, o contingencia. La información codificada en el ADN tampoco se presenta como una regularidad como se ve en cristales u otro tipo de estructuras simétricas. La información es especificada porque produce una función no provocada por las propiedades que contiene. Indiscutiblemente, esto implica que la información biológica no es de origen aleatorio o por necesidad, sino el producto de un agente inteligente.

Otro ejemplo es el del flagelo bi-direccional bacteriano cuyo ensamblaje de partes proteicas (rotor, estator, cojinete, etc.) no depende de una afinidad entre las partes mismas. El flagelo, es literalmente arbitrario en su estructura funcional. Las características del flagelo bacteriano incluyen: 1.) Auto ensamblaje y reparación 2.) Motor rotativo con refrigeración de agua 3.) Unidad de sistema con fuerza protónica 4.) Cambios hacia delante y hacia atrás 5.) Velocidad de 100.000 rpm 6.) Reversión de capacidad dentro de 1/4 de vuelta 7.) Sistema de transducción de señal de cable con memoria de corto plazo.

En mi siguiente entrada tratare de presentar los varios mecanismos que se dicen tener la capacidad de producir tal complejidad.


Autor: Mario A. Lopez. Es presidente de la OACDI (Organización para el Avance Científico del Diseño Inteligente — http://www.oiacdi.org/). Es uno de los investigadores de habla hispana más consagrados a la difusión del programa del diseño inteligente en su propio idioma, facilitando traducciones, e incluso artículos y diversos libros de su propia autoría. Con la colaboración de sus colegas (entre ellos matemáticos, bioquímicos y médicos) ha publicado entre otras obras: Evolucionismo y Conocimiento Racional: Elementos de Estructuras Funcionales, y Diseño Inteligente: Hacia Un Nuevo Paradigma Científico. Actualmente traduce y escribe para Darwin o DIhttp://www.darwinodi.com/.


2013-03-09

La Marca de la Inteligencia —William Dembski, Jonathan Wells


La complejidad irreductible provee evidencia no solo en contra de la evolución Darwiniana sino también a favor del diseño inteligente. No obstante, la complejidad irreductible necesita ser complementada con alguna otra forma de complejidad, si deseamos convertirla en una herramienta analítica precisa para detectar diseño en los sistemas biológicos. Es frecuente que, cuando actúa un agente inteligente, este deja atrás una marca de identificación que señala claramente su inteligencia. Esta marca de la inteligencia se conoce como complejidad especificada. Me imagino a la complejidad especificada como una huella digital o firma que identifica positivamente la actividad de una inteligencia. A diferencia de la complejidad irreductible, que es una noción cualitativa, la complejidad especificada puede ser cuantificada y cae dentro la teoría matemática de la probabilidad y la información (1). La conexión entre las dos formas de complejidad es esta: los sistemas irreduciblemente complejos pueden, bajo ciertas circunstancias, exhibir complejidad especificada. 

Pero ¿Qué es exactamente la complejidad especificada? Un objeto, evento o estructura exhibe complejidad especificada si es tanto complejo (esto quiere decir que no sea fácilmente reproducible por el azar) como especificado (que despliega un patrón dado de forma independiente). Ni la complejidad ni la especificación son por sí mismas suficientes para implicar una inteligencia. Por ejemplo, una secuencia de piezas del Scrabble ordenadas al azar es compleja sin que sea especificada. Recíprocamente, una secuencia que repite la misma palabra y esta palabra es corta, es especificada sin que sea compleja. En ninguno de los casos se requiere a una inteligencia para explicar estas secuencias. Por otro lado, la secuencia de un texto significativo es tanto compleja como especificada. Esta explicación requiere una inteligencia.


 Un ejemplo memorable de complejidad especificada proviene de la famosa novela del astrónomo Carl Sagan, titulada Contact (1985) (la cual posteriormente fue convertida en una película protagonizada por Jodie Foster). En esta novela, radioastrónomos que trabajaban en el SETI (Busqueda de Inteligencia Extraterrestre) descubrieron una larga secuencia de números primos provenientes del espacio exterior. Como la secuencia es larga, es difícil de reproducir por azar y, por consiguiente, compleja. Además, como la secuencia es matemáticamente significativa, esta puede estar caracterizada independientemente de los procesos físicos que la trajeron a la existencia. Como consecuencia, cuando en Contact los investigadores del SETI observaron complejidad especificada en esta secuencia de números, ellos tuvieron evidencia convincente de inteligencia extraterrestre. En la vida real los investigadores del SETI han fallado en detectar señales inteligentes del espacio exterior. Sin embargo, el punto a tener en cuenta es que Sagan sentó las bases de un método para la detección de diseño, el cual fue llevado a la práctica por los investigadores ficticios del SETI.

En muchas ramas de la ciencia ya se emplea a la complejidad especificada como una marca de la inteligencia —por ejemplo, en la ciencia forense, criptografía, generación aleatoria de números, arqueología, y la búsqueda de inteligencia extraterrestre. Los teóricos del diseño se apropian de esta seña o marca, y la aplican a los sistemas naturales (2). Cuando lo hacen, ellos afirman encontrar que ciertas maquinas moleculares irreduciblemente complejas exhiben complejidad especificada y por consiguiente son el producto de una inteligencia. El propósito de esta serie será examinar y demostrar esta afirmación.

Autores: William Dembski -Tiene un Ph.D. en filosofía (Universidad de Illions en Chicago) y un Ph.D. en matematica (Universidad de Chicago). Es uno de los principales teóricos del Diseño Inteligente y ha escrito varios libros sobre la temática. Es autor del primer libro del Diseño Inteligente publicado por una editorial universitaria renombrada:The Design Inference: Elimitating Chance Through Small Probabilities. (Cambridge University Press, 1998). Es investigador del Discovery Institute.

Jonathan Wells - Tiene un Ph.D. en biología celular y molecular de la Universidad de California en Berkeley. Actualmente es uno de los principales investigadores del Discovery Institute.

Traductor: Daniel Alonso - Estudia Licenciatura en Ciencias Biológicas en la UNT, Argentina.

De: Dembski, W.; Wells J. (2008) the Design of Life: Discovering Signs of Intelligence in Biological Systems, The Foundation for Thought and Ethics, Dallas, p. 165-168.


REFERENCIAS:

(1) Vea, por ejemplo, los capítulos 2 y 3 de No Free Lunch: Why Specified Complexity Cannot Be Purchased Without Intelligence de William Dembski (Lanham, Md.: Rowman and Littlefield, 2002).

(2) Vea Debating Design: From Darwin to DNA de William Dembski y Michael Ruse (Cambridge: Cambridge University Press, 2004), part IV



Serie: La Complejidad Especificada



Aquí encontrarás artículos referidos al tema. Están enumerados en orden conceptual así puedas integrar las ideas correctamente y con el menor gasto de tiempo posible. Continuamente estamos agregando nuevos y modificando la numeración de la serie

La complejidad especificada es otro argumento fuerte a favor de diseño inteligente en la biología. Desde su publicación The Design Inference (1998), el matemático y filósofo William Dembski nos dejó con la pregunta: ¿Existe un método fiable  para demostrar si un evento es producto del diseño y no del azar? Te fascinara ver como la matemática es aplicada a la biología, y como este término de Complejidad Especificada cambia, de forma asombrosa, tu visión sobre el origen de la vida. 


2-La Marca de la Inteligencia —William Dembski, Jonathan Wells


3- Definiendo a la Complejidad Especificada —William Dembski



Dado por sentado de que la complejidad especificada es un fenómeno matemático que indica diseño inteligente, surge entonces la pregunta ¿Cual es su relación con la Biología? ¿Se puede calcular la complejidad especificada en determinados eventos biológicos para saber si son el resultado de diseño o no? Si, efectivamente. La siguiente secuencia de artículos explica el porqué y el cómo.

La Inferencia del Diseño —William Dembski


El diseño inteligente comienza cuando se da lugar a la siguiente posibilidad: ¿Existen sistemas en la naturaleza que no puedan ser explicados solamente en términos de causas naturales y que exhiban patrones característicos de la inteligencia? Tal posibilidad es legítima de considerar por la ciencia. No obstante, para evaluar científicamente esta posibilidad, tiene que existir un modo fidedigno de distinguir entre eventos que son el resultado de causas puramente naturales y eventos cuya emergencia requiere adicionalmente de la ayuda de una inteligencia diseñadora. (Note que no es estrictamente “una” o la “otra”, como si se tratase de “causas naturales” versus “diseño”; la cuestión es si las causas naturales se encuentran complementadas o no complementadas por un diseño.) El punto central de la inferencia del diseño es trazar tal distinción entre causas naturales e inteligentes.

De forma específica, la inferencia del diseño plantea la siguiente pregunta: si alguna inteligencia estuvo involucrada en algún evento o en la formación de algún objeto, y si no tenemos evidencia directa de tal actividad inteligente, ¿Cómo podríamos determinar si tal inteligencia participó del evento? La pregunta formulada es muy general, pero ha surgido en contextos numerosos, incluyendo a la arqueología, la criptografía, generación aleatoria de números, el SETI (Búsqueda de Inteligencia Extraterrestre) y falsificación de datos en la ciencia. Me enfocaré en el caso de falsificación de datos en el que estuvo implicado Hendrik Schön. Este caso remarca la legitimidad de la inferencia del diseño y la vincula a un asunto de verdadera urgencia para la comunidad científica.

El 23 de Mayo de 2002, el New York Times informó acerca del trabajo de “J. Hendrik Schön, de 31 años, un físico de Bell Labs en Murray Hill, N.J., quién en los últimos dos años y medio produjo un conjunto extraordinario de trabajos, incluyendo siete artículos publicados en Science y en Nature, dos de las revistas científicas más prestigiadas.” A pesar de sus credenciales impecables, la carrera de Schön fue puesta en tela de juicio. ¿Por qué? De acuerdo con el New York Times, Shön publicó “graficos que son casi idénticos a los aparecidos en diferentes publicaciones científicas y datos presentados en diferentes expedientes. Incluso, en algunos gráficos, pequeños detalles que deberían haber surgido de fluctuaciones al azar, coincidieron exactamente”. Como consecuencia, Bell Labs nombró a un panel independiente a fin de determinar si Schön “manipulo deshonestamente datos de otras investigaciones publicadas en revistas científicas prestigiosas.” En septiembre de 2002 el panel llegó a la conclusión de que Schön era, en efecto, culpable de falsificación de datos. Luego, Bell Labs despidió a Schön.

Las cuestiones teoréticas que se levantaron en este caso son precisamente aquellas que conciernen a la inferencia del diseño. Para determinar si Schön copio los números, el panel tuvo que percibir dos cosas: que el primer gráfico publicado proveyó un patrón independientemente dado o especificación para el segundo, y que en los artículos de Schön la coincidencia entre los dos gráficos era altamente improbable (o “compleja”) suponiendo que los gráficos hayan sido el resultado de fluctuaciones azarosas. Aquí el azar es incluido y bien comprendido, y debería haber operado sobre los experimentos de Schön como el mismo lo afirmaba. Consecuentemente, el panel buscó e investigo sobre algún mecanismo material desconocido o algún proceso natural que pueda explicar cómo gráficos pertenecientes a experimentos independientes registrados en expedientes diferentes pudieron haber exhibido el mismo patrón de fluctuaciones al azar. Al final, el panel concluyó racionalmente que se trataba de manipulación de datos y diseño. En otras palabras, llegaron a esta conclusión por la identificación de un patrón independientemente dado y altamente improbable, o lo que nosotros denominamos Complejidad Especificada.

No hay forma de escapar de la complejidad especificada cuando inferimos diseño. Las inferencias de diseño aparecen en los casos donde la evidencia es circunstancial y, por consiguiente, carecemos de evidencia directa de una inteligencia diseñadora. Cuando la evidencia directa se encuentra perdida, no hay problema si explicamos un evento como el resultado del azar, aún si es altamente improbable o complejo. Eventos altamente improbables e inespecíficos, después de todo, suceden por azar todo el tiempo. Solo tome una moneda y arrójela al aire unas mil veces. La secuencia precisa de caras y secas que usted observa es inimaginablemente improbable, cada una con una probabilidad de ocurrencia menor que uno en 10300. Pero esta secuencia es inespecífica. Invocar al azar para explicar un evento se convierte en un problema solo cuando, además de ser muy improbable o complejo, también coincide con un patrón dado de forma independiente o especificación.

En el caso de los gráficos de Schön, en el contexto relevante a las hipótesis de azar que caracterizan a las fluctuaciones aleatorias, la coincidencia entre los gráficos debió ser altamente improbable como para causar sospechas sobre Schön. (Si los gráficos fueran meramente histogramas de dos barras con solo unas pocas graduaciones del peso, entonces la coincidencia entre los gráficos sería razonablemente probable y ninguno se habría atrevido a cuestionar la integridad de Schön.) En efecto, el panel determino que era muy improbable que los gráficos encajaran con tal precisión. Sin embargo, la improbabilidad no fue suficiente. Las fluctuaciones aleatorias de cada gráfico, tomadas individualmente, son de hecho altamente improbables. Pero fue la sincronía entre los gráficos lo que levanto sospechas. Un grafico dejó una especificación para el otro de tal manera que, en presencia de improbabilidad, la inferencia de diseño quedó totalmente afianzada.

Pero en sí misma la inferencia del diseño no implica a ninguna inteligencia en particular. Una inferencia de diseño tiene como objetivo demostrar que los datos en los trabajos de Schön fueron manipulados deshonestamente. Sin embargo, no puede demostrar que Schön es el culpable. Identificar al culpable real requiere de análisis causales más detallados — para el caso de Schön , un análisis que fue conducido por un panel independiente designado por Bell Lab. Sobre la base de este análisis, el panel concluyó que Schön era efectivamente el culpable. No solo era el autor principal de los artículos en cuestión, sino también el único entre sus coautores que tenía acceso a los expedientes que produjeron estos sucesos desconcertantes de coincidencia experimental. Lo que es más, todos los protocolos experimentales que estaban bajo la responsabilidad de Schön desaparecieron misteriosamente cuando el panel procuró revisarlos.

En el caso de Shön, la inferencia del diseño aplicada por el panel independiente ilustra la diferencia entre la inferencia del diseño y el argumento del diseño. El argumento del diseño tiene su núcleo en el argumento filosófico y teológico. Intenta establecer la existencia y atributos de una causa inteligente que se encuentra detrás del universo, basándose en ciertas características del universo. En contraste, la inferencia del diseño es un argumento genérico para identificar a los efectos de la inteligencia indiferentemente de las características particulares esta inteligencia, como donde, cuando, cómo o por qué esta inteligencia actúa. (La inteligencia puede ser animal, humana, extraterrestre, singular, plural, inmanente o trascendente). La inferencia del diseño busca una característica en particular —complejidad especificada— y la usa como base para inferir inteligencia. Por consiguiente, cuando un evento, objeto o estructura en el mundo exhibe complejidad especificada, uno infiere que una inteligencia fue responsable de ello. En otras palabras, uno hace una inferencia del diseño. 



Autor: William Dembski -Tiene un Ph.D. en filosofía (Universidad de Illions en Chicago) y un Ph.D. en matematica (Universidad de Chicago). Es uno de los principales teóricos del Diseño Inteligente y ha escrito varios libros sobre la temática. Es autor del primer libro del Diseño Inteligente publicado por una editorial universitaria renombrada: The Design Inference: Elimitating Chance Through Small Probabilities. (Cambridge University Press, 1998). Es investigador del Discovery Institute.

Traductor: Daniel Alonso - Estudia Licenciatura en Ciencias Biológicas en la UNT, Argentina.

Fuente:  Dembski, W. (2004) The Design Revolution: Answering The Toughest Questions About Intelligent Design, IVP Books, p. 75-77.
 .