2014-02-18

A qué nos referimos cuando hablamos de "Información"—Casey Luskin


La definición de información

El NCSE define a “información” como se definiría a la "información de Shannon," lo que significa mera complejidad. En el marco de tal definición, un tramo ilegible y sin función de ADN podría tener la misma cantidad de "información" que un gen totalmente funcional con la misma longitud de secuencia. Por ejemplo, siguiendo la teoría de información de Shannon, que según el NCSE es "el sentido que los teóricos de la información le dan a ‘información’", las dos secuencias siguientes tendrían cantidades idénticas de información:


Secuencia A: LAINFORMACIONDESHANONESUNAMEDIDADEINFORMACIONBIOLOGICA

Secuencia B: HGIAAEJIJUCCCUDKGDIUENVCDLIFNNENHFLDKDNFNUNSMDINKJEEMN

Tanto la secuencia A como la B se componen de 54 caracteres, y cada una tiene exactamente la misma cantidad de información de Shannon —aproximadamente 254 bits [1]. Sin embargo solo la secuencia A transmite información funcional, mientras que la B fue producida por un generador de caracteres al azar. [2] Por razones obvias, la complejidad Shannon ha sido criticada durante mucho tiempo por ser una medida inapropiada de información biológica funcional. Después de todo, la información biológica esta precisamente afinada para realizar una función biológica específica, razón por la que no puede consistir en una secuencia aleatoria. Una medición adecuada de la información biológica debe tener en cuenta la función de la información, y la información de Shannon no tiene en cuenta la función.

Algunos expertos en el tema reconocen este punto. En 2003, el Premio Nobel Jack Szostak, quien investiga el origen de la vida, escribía en un review en Nature que el problema con la "teoría de la información clásica" es que "no considera el significado de un mensaje" y en lugar de ello define la información "como simplemente una secuencia necesaria de especificar, almacenar o transmitir" [3]. Según Szostak, "se requiere una nueva medida de la información —información funcional— "a fin de darle relevancia a la capacidad que tiene la secuencia de una proteína determinada de realizar una función determinada. Del mismo modo se observa en un paper en la revista Theoretical Biology and Medical Modelling:

Ni la RSC [Complejidad de una Secuencia generada Aleatoriamente] ni la OSC [Complejidad de una Secuencia generada de forma Ordenada], o cualquier combinación de los dos, es suficiente para describir la complejidad funcional observada en los organismos vivos, porque no incluye la dimensión adicional de funcionalidad, que es esencial para vida. La FSC [Complejidad de una Secuencia Funcional] incluye la dimensión de funcionalidad. Szostac arguye que ni la medida de la incertidumbre de Shannon ni la medida de la complejidad algorítmica son suficientes. La teória clásica de Shannon sobre la información no considera el significado, o función, de un mensaje. La complejidad algorítmica no tiene en cuenta la observación de que "diferentes estructuras moleculares pueden ser funcionalmente equivalentes." Por esta razón, Szostak sugiere que se requiere una nueva medida de la información —información funcional. [4]

En 2007 Szostak publicó un Paper de PNAS junto a Robert Hazen y otros científicos promoviendo ese tipo de argumentos. Manifestaron su desacuerdo con los que insisten en la medición de la complejidad biológica utilizando las herramientas anticuadas de la teoría de Shannon: "Una medida de complejidad es de poca utilidad a menos que su marco conceptual y poder predictivo traigan como resultado un conocimiento más profundo del comportamiento de los sistemas complejos." Así que ellos proponen "medir la complejidad de un sistema en términos de información funcional, que es la información necesaria para codificar una función específica." [5]

El coautor de Explore Evolution (EE), Stephen C. Meyer, sigue el mismo enfoque, y escribe en un artículo el término “’información compleja y especificada’(CSI) como un sinónimo de ‘complejidad especificada’, a fin de ayudar a distinguir a la información biológica funcional de la mera información de Shannon —es decir, complejidad especificada de la mera complejidad” [6]. Esta definición propuesta por Meyer de "complejidad especificada" es útil para describir a la información biológica funcional. La complejidad especificada es un concepto derivado de la literatura científica y no un invento de los críticos del neo-Darwinismo. En 1973, Leslie Orgel, un científico que se avocó al estudio del origen de la vida, definió a la complejidad especificada como la marca de la complejidad biológica:

Los organismos vivientes se distinguen por su complejidad especificada. Los cristales como el granito no califican como vivientes debido a su carencia de complejidad; mezclas azarosas de polímeros tampoco califican, por su falta de especificidad [7]

De esta manera, Orgel rescata el hecho de que la complejidad especificada, o CSI, requiere de una secuencia improbable y un ordenamiento especificado. La complejidad especificada es una medida más excelente de la complejidad biológica que la información de Shannon, un punto que el NSCE resiste a aceptar, ya que por medio de procesos darwinianos es mucho más difícil generar complejidad especificada que complejidad Shannon.

Al plantear que la información de Shannon es el único “sentido que los teóricos de la información le dan a ‘información’, el NSCE evade las cuestiones más difíciles como la forma en que la información se vuelve funcional en los sistemas biológicos, o según sus propias palabras, "útil". En lugar de ello, el NCSE parece más interesado en abordar cuestiones triviales simplistas como la forma en que se podría añadir caracteres adicionales en una secuencia, o duplicar una secuencia, sin tener en cuenta la pregunta más importante: si esos caracteres adicionales transmiten un mensaje funcional novedoso. Como la biología está constituida en sus bases por información funcional, Explore Evolution le da relevancia a lo más importante: ¿Explica realmente el neo-Darwinismo cómo es que emerge la información biológica novedosa?

La analogía del lenguaje de computadora

Mas que CSI o FSC, Explore Evolution define a la información biológica comparándola a un código funcional de computadora:

Una buena parte de la información que se necesita para construir un organismo (con sus rasgos variados) es almacenada en la molécula de ADN. Algunos científicos se refieren a esta información como “instructivo de montaje” o “programa genético”. Al igual que un programa de computadora, el ADN contiene el equivalente biológico de líneas de código de computadora. El zoólogo evolucionista Richard Dawkins afirma, “La maquinaria codificadora de los genes es, de forma misteriosa, similar a una computadora”. (Explore Evolution, p. 94)

Esta presentación que hace Explore Evolution de la información biológica como “el equivalente biológico de líneas de código de computadora” no solo es adecuada, sino que parece enteramente apropiada para impartirles a los estudiantes una visión de la naturaleza de la información biológica funcional. Muchas autoridades en la cuestión han comparado la información biológica con un código de computadora, particularmente en lo que respecta al hecho de que la información biológica cambiante requiere la adición de nuevas líneas de código funcional y componentes del programa que interactúen apropiadamente. No solo Richard Dawkins hace la comparación entre el ADN y las computadoras o lenguajes codificados, sino que existen una cantidad de autoridades científicas que han hecho lo mismo en publicaciones revisadas.

Hubert Yockey escribe en Journal of Theoretical Biology que la comparación entre la información biológica que tiene una secuencia específica y el lenguaje de computadora no es solo una mera analogía; tanto el ADN como el lenguaje informático son “matemáticamente idénticos”:

[La conservación de los fenómenos bioquímicos a lo largo de la vida] y la universalidad del código genético le hacen creer a uno que la vida en la tierra ha tenido un comienzo y un programa básico de mensajes genéticos (usando una analogía informática) originados a fin de traer a la existencia algún organismo primitivo, denominado, el protobionte. La unidad bioquímica de este programa básico ha sido retenida a lo largo de la evolución, en algunos casos con una ligera modificación en el que se han agregado algunos subprogramas nuevos. […] En el trabajo siguiente hemos recurrido a ilustrar nuestros puntos referenciando por las propiedades del lenguaje. Es importante entender que no estamos razonando a través de una analogía. La hipótesis de la secuencia puede ser aplicada directamente a las proteínas y al texto genético como también al lenguaje escrito, de allí que son matemáticamente idénticos. […] Las “propiedades de los aminoácidos”, los cuales producen las primeras biomoléculas de información, meramente jugarían un rol de gramática, o de reglas de ortografía, etc. en un lenguaje ordinario. La gramática y la ortografía son autónomas e independientes del significado, por lo que es claro que es imposible que el genoma del protobionte haya surgido de una “sopa primitiva” de esta forma [un escenario de autoorganización] [8]

En una publicación en la revista Acta Biotheoretica el biólogo Richard Sternberg ofrece una extensa y detallada comparación entre la capacidad celular de procesar información y la computación. Stemberg hace la observación de que el código genético es similar a un código informático que contiene la siguientes propiedades: “Redundancia, capacidad de resaltar errores, flexibilidad semántica y simbólica, rendimiento versátil, múltiple practicidad, y edición de texto” [9]. Continúa Sternberg:

El uso más común que se le da al término código es uno muy consonante con la noción de un “programa genético” —el lenguaje de la programación informática es similar en el sentido de que los datos y las instrucciones también se encuentran incorporados al mismo. Con frecuencia se dice que las ORFs constituyen el texto simbólico para los productos génicos y las interacciones de los últimos, y en este sentido nos referimos al genoma como un software. [10]

Asimismo, un paper de Cell Biology International sugiere que estudiar genes es como estudiar computadoras:

Los genes y las redes emergentes de genes representan la programación. Estos algoritmos se encuentran ya escritos en un sistema operador y ambiente preexistentes. Al igual que en la ciencia de la computación, este lenguaje es usado por el programador. No solo debemos encontrar modelos que respondan a programaciones genéticas específicas, sino que también debemos encontrar aquel que responda para el sistema operador genético. […] La complejidad algorítmica de la vida pone a nuestras mejores computadoras en ridículo. [11]

En la revista Chaos, Solitons and Fractals otro biólogo escribe que, “Las funciones biológicas y los sistemas de señal recuerdan a la complejidad de los programas de computadora” [12]. Nos damos cuenta que el NSCE está injustificado en su afirmación de que Explore Evolution hace “una analogía forzada”, al tomar conocimiento del pensamiento de autoridades como Dawkins, y de aquellos artículos que comparan al funcionamiento del código genético con las computadoras.

Según el NCSE:

En la teoría de la información, cualquier sonido al azar aumenta de manera real la cantidad de información que está siendo transmitida. Si esa información es útil o no para el oyente es una cuestión aparte. A menudo tenemos mucha expectación con respecto a la información que está siendo transmitida a través de una línea telefónica, tal que un simple estancamiento de la línea reduciría la cantidad de información que esperamos recibir.

El comentario de arriba cierra perfectamente con la definición estándar de información de Shannon, no obstante el NCSE está errado al sugerir que este es el único modo de definir información. Por otro lado, esta cita del NCSE también revela un punto muy importante: que tal definición de información no es buena a la hora de determinar “si esa información es útil”.

Definición de información nueva o novedosa

El NCSE estaría más inclinado a definir “información nueva” como el mero copiado o duplicado de una porción pre-existente de ADN, incluso si esta nueva copia no consiste realmente de algo nuevo, o tal vez incluso cuando el ADN nuevo no realice ningún trabajo. En contraste, los proponentes del diseño inteligente definirían “información nueva” como una porción nueva de ADN que realiza realmente alguna función nueva, útil y diferente. Por ejemplo, considérese la siguiente secuencia: 

DUPLICARESTACADENANOPRODUCEINOFMACIONNUEVA

Esta secuencia contiene 42 caracteres ó 197 bits de información de Shannon. Ahora considérese la longitud de la secuencia siguiente:

DUPLICARESTACADENANOPRODUCEINOFMACIONNUEVADUPLICARESTACADENANOPRODUCEINOFMACIONNUEVA

Este procedimiento consistió solo en la adición de 42 caracteres “nuevos”, pero no se produjo información novedosa. Asumiendo que no existió forma de predecir con anticipación de que la primera secuencia sería duplicada como lo fue, la cantidad de información de Shannon ha sido duplicada, pero la cantidad de CSI no ha incrementado ni un solo bit (literalmente).

El ejemplo de arriba es obviamente análogo al mecanismo evolutivo de la duplicación génica, el cual los evolucionistas citan comúnmente como mecanismo por el que los procesos Darwinianos pueden producir información nueva. Pero la información nueva no se genera por un proceso de duplicación hasta que las mutaciones cambien al gen lo suficiente como para generar una función nueva. Haciendo referencia a esto, Michael Egnor, profesor de neurocirugía, le respondía a un biólogo evolucionista:

La duplicación génica no se presta a ser tomada seriamente. Si usted considera a una copia como un ejemplo de información nueva, estaría fomentando el plagio en sus clases. Todo lo que sus estudiantes malandrines tendrían que decir es ‘esto es similar a la duplicación génica. El plagio es información nueva’ — ¡eso es lo que usted afirma en su blog’! [13]

En efecto, las explicaciones evolucionistas no pueden simplemente basarse en la duplicación; debe existir duplicación seguida de reclutamiento de funciones nuevas. Meramente duplicar una secuencia no produce información funcional nueva. [14]

Esta es la primera sección de una serie sobre la evolución de los genes, escrita por Casey Luskin. Para continuar con la parte 2, haz Click Aqui.


Autor: Casey Luskin. Es abogado, con estudios de postgrado en ciencia y leyes. Obtuvo su B.S. y M.S. en Ciencias de la Tierra de la Universidad de California en San Diego. Su Licenciatura en Derecho la obtuvo en la misma universidad. Trabaja en el Discovery Institute como Coordinador del Center for Science and Culture. Anteriormente, realizó una investigación geológica en la Scripps Institution for Oceanography (1997-2002).

Traducción: Daniel Alonso. Estudia Licenciatura Ciencias Biológicas en UNT (Universidad Nacional de Tucumán), Argentina. 

Fuente: http://www.exploreevolution.com/exploreEvolutionFurtherDebate/2010/03/response_to_the_ncses_reply_to.php


REFERENCIAS:

[1] Para este cálculo se han considerado las 26 letras del alfabeto inglés, y como se ve en la secuencia, no se tienen en cuenta los espacios.

[2] La secuencia B ha sido producida a través de un generador de caracteres aleatorios que puede encontrarse en la página Random.org.

[3] Jack W. Szostak, "Molecular messages," Nature, Vol. 423:689 (June 12, 2003).

[4] Kirk K. Durston, David K. Y. Chiu, David L. Abel, Jack T. Trevors, "Measuring the functional sequence complexity of proteins," Theoretical Biology and Medical Modelling, Vol. 4:47 (2007) (las referencias internas han sido removidas).

[5] Robert M. Hazen, Patrick L. Griffin, James M. Carothers, y Jack W. Szostak, "Functional information and the emergence of biocomplexity," Proceedings of the National Academy of Sciences, USA, Vol. 104:8574--8581 (May 15, 2007).

[6] Stephen C. Meyer, "The origin of biological information and the higher taxonomic categories," Proceedings of the Biological Society of Washington, Vol. 117(2):213-239 (2004).

[7] Leslie E. Orgel, The Origins of Life: Molecules and Natural Selection, pg. 189 (Chapman & Hall: London, 1973).

[8] Hubert  P. Yockey, "Self Organization Origin of Life Scenarios and Information Theory," Journal of Theoretical Biology, Vol. 91:13-31 (1981).

[9] Richard Sternberg, "DNA Codes and Information: Formal Structures and Relational Causes,"Acta Biotheoretica, Vol. 56(3):205-32 (Septiembre, 2008).

[10] Id.

[11] Jack T. Trevors and David L. Abel, "Chance and necessity do not explain the origin of life," Cell Biology International, Vol. 28: 729-739 (2004).

[12] Ã˜yvind Albert Voie, "Biological function and the genetic code are interdependent," Chaos, Solitons and Fractals, Vol. 28(4): 1000-1004 (2006).


[14] Como se sugiere en el texto, si uno pudiese predecir qué secuencia será duplicada, la información de Shannon no aumentará luego de la duplicación, y en este caso no habrá un incremento de CSI ni de información de Shannon. 

No hay comentarios :