SciELO - Scientific Electronic Library Online

 
vol.13 número1Sobre a definição de observação como percepção verdadeira justificadaHeisenberg e a doutrina das cores de Goethe e Newton índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

Compartilhar


Scientiae Studia

versão impressa ISSN 1678-3166versão On-line ISSN 2316-8994

Sci. stud. vol.13 no.1 São Paulo jan./mar. 2015

http://dx.doi.org/10.1590/S1678-31662015000100007 

Artigos

Información clásica e información cuántica: ¿dos tipos de información?

Classical and quantum information: two kinds of information?

Cristian López1 

Olimpia Lombardi2 

1Consejo Nacional de Investigaciones Científicas y Técnicas, Universidad de Buenos Aires, Argentina. lopez.cristian1987@gmail.com

2Consejo Nacional de Investigaciones Científicas y Técnicas, Universidad de Buenos Aires, Argentina. olimpiafilo@arnet.com.ar

RESUMEN

El presente artículo busca ofrecer un análisis conceptual de la noción de información, a partir del modo en que es definida por las teorías formales de Claude Shannon y de Benjamin Schumacher. Contra la postura según la cual existen dos tipos de información de naturalezas diferentes, una información clásica y una información cuántica (definidas por las teorías de Shannon y de Schumacher respectivamente), aquí argumentamos que no hay razones suficientes para sostener la existencia de la información cuántica como un nuevo tipo sustancialmente distinto de información. Afirmamos así que existe un único tipo de información que puede ser codificado de diversas maneras, en particular, mediante sistemas clásicos o sistemas cuánticos. Esta posición nos conducirá a concebir un concepto unificado y abstracto de información, en un contexto donde (1) la teoría de Shannon resulta neutral e independiente de las teorías físicas utilizadas para describir las partes involucradas en el proceso de transmitir información, y (2) la teoría de Schumacher no define un nuevo tipo de entidad informacional, sino una manera alternativa de codificar la información mediante estados cuánticos.

Palabras-clave: Teoría de la Información; Shannon; Schumacher; Información clásica; Información cuántica; Codificación

ABSTRACT

The aim of this article is to offer a conceptual analysis of the notion of information, on the basis of the way in which it is defined by the theories of Claude Shannon and of Benjamin Schumacher. Against the position according to which there are two kinds of information of different natures, a classical information and a quantum information (defined by the theories of Shannon and Schumacher respectively), here we argue that there are not sufficient reasons to maintain the existence of quantum information as a new and substantially different kind of information. So we claim that there is only one kind of information, which can be encoded in different ways, in particular, by means of classical or quantum systems. This position will lead us to conceive an unified and abstract concept of information in a context where (a) Shannon's theory is neutral and independent from the physical theories used to describe the stages involved in the process of transmitting information, and (b) Schumacher's theory does not define a new kind of informational entity, but a alternative way of coding information by means of quantum states.

Key words: Information Theory; Shannon; Schumacher; Classical information; Quantum information; Coding

Introducción

Actualmente nuestras vidas están atravesadas por la información. Desde que nos conectamos a Internet cada mañana para revisar las noticias de cualquier parte del mundo, hasta que buscamos una receta en un cajón de la cocina o recibimos llamadas en nuestra celular a toda hora, enormes cantidades de información se almacenan y transmiten en todo momento y lugar. Es común escuchar que "vivimos en la era de la información", como una característica propia de nuestra época. Según un estudio publicado en la revista Science, durante 2007 la humanidad logró almacenar 2,9.1020 bits de información, óptimamente comprimidos, y comunicar al menos 2.1021 bits (cf. Hilbert & López, 2011). Si bien la información siempre estuvo presente en la historia humana (ya sea inscripta en la Piedra de Rosetta, en la primera Biblia impresa por Gutenberg o en una tablilla sumeria), su presencia en nuestros días es abrumadora. Y aunque existen testimonios clásicos, medievales y modernos de filósofos interesados por el concepto de información (cf. Adriaans, 2013), sólo recientemente ha sido considerado un concepto filosóficamente relevante, susceptible de un tratamiento sistemático.

A pesar de su enorme y cotidiana presencia, no es claro, en absoluto, a qué nos referimos con el término "información". Se trata, sin lugar a dudas, de un concepto sumamente elusivo; como sostiene Luciano Floridi (2011), "información" es un térmi-no poli-semántico, usualmente asociado con una enorme variedad de fenómenos vinculados al conocimiento, la comunicación, la tecnología, la práctica científica, el significado etc. La filosofía de la información nace en la segunda mitad del siglo xx como un intento de comprender, conceptual y sistemáticamente, qué es la información.

Intuitivamente, la información parece estar relacionada con el almacenamiento y la transmisión de datos, los cuales "contienen" o "transportan" alguna clase de contenido. Una primera distinción que suele introducirse en el marco de esta temática discrimina entre una perspectiva semántica y una perspectiva estadística de la información. Desde una perspectiva semántica, la información porta contenido semántico y se relaciona íntimamente con nociones como referencia y significado. Si, por el contrario, concebimos la información desde un punto de vista estadístico, dirigimos nuestro interés hacia las propiedades estadísticas de un sistema y/o de las correlaciones entre los estados de un sistema. Christopher Timpson (2003; 2004; 2006; 2008; 2013) ha denominado "información técnica" a este sentido de información, ya que se ocupa de las propiedades estadísticas de las señales y las correlaciones descriptas bajo alguna teoría formal de la información (cf. Timpson, 2004, p. 4).

Si bien existen varios intentos de formalizar el concepto de información considerado desde una perspectiva estadística (por ejemplo, información de Fisher, información algorítmica, entre otras), la propuesta tradicional, con múltiples aplicaciones en los ámbitos más diversos (desde la ingeniería en comunicaciones hasta la biología molecular y la ecología), es la teoría de la información propuesta por Claude Shannon en 1948, en su famoso artículo "The mathematical theory of communication". El éxito del trabajo de Shannon radica en que logra introducir un formalismo preciso para el tratamiento de la información, diseñado para solucionar problemas tecnológicos específicos en ingeniería de la comunicación. No obstante, más allá de su éxito práctico y su amplia difusión, persisten aún numerosos problemas acerca de cómo interpretar el concepto de información que allí se define.

En las últimas décadas, la emergencia de un nuevo actor en escena ha caldeado el debate. El campo de la información cuántica ha experimentado un enorme auge y, con ello, han aparecido nuevos problemas en el horizonte filosófico. La información cuán-tica parece haber creado un nuevo escenario en el cual se combinan los problemas tradicionales de los fundamentos de la mecánica cuántica, con los problemas ya mencionados de cómo elucidar el concepto de información. Usualmente, se considera que el trabajo de Benjamin Schumacher, "Quantum coding" (1995), es la formulación pre-cisa de una teoría de la información cuántica. Más aún, científicos y filósofos de la información suponen que la teoría de Schumacher es un análogo cuántico de la teoría de la información de Shannon, esta última restringida a un dominio ligado a la física clásica.- Esta idea, que progresivamente ha permeado la comunidad de científicos y filósofos del campo, condujo a concebir que existen dos tipos de información diferentes: una in-formación clásica, definida por la teoría de Shannon, y una información cuán-tica, de-finida por la teoría de Schumacher. Algunos autores sostienen, incluso, que la información cuántica es un nuevo tipo de entidad física sustancialmente diferente a la información de Shannon, con características peculiares y una enorme potencialidad en el ámbito de las comunicaciones y la computación (cf. Jozsa, 1998; Brukner & Zeilinger, 2001).

El presente artículo busca ofrecer un análisis conceptual de la noción de información, a partir del modo en que es definida por las teorías formales de Shannon y Schumacher. Contra la postura según la cual existen dos tipos de información con naturalezas diferentes, una información clásica y una información cuántica (definidas por las teorías de Shannon y de Schumacher respectivamente), aquí argumentaremos que no hay razones suficientes para sostener la existencia de la información cuántica como un nuevo tipo sustancialmente distinto de información, sino que existe un único tipo de información que puede ser codificado de diversas maneras, en particular, mediante sistemas clásicos o sistemas cuánticos. Esta posición nos conducirá a concebir un concepto unificado y abstracto de información, en cuyo marco:

  • (1) la teoría de Shannon resulta neutral e independiente de las teorías físicas utilizadas para describir las partes involucradas en el proceso de transmitir información, y

  • (2) la teoría de Schumacher no define un nuevo tipo de entidad infor-ma-cional, sino una manera alternativa de codificar la información mediante estados cuánticos.

Para desarrollar la argumentación que respaldará nuestra postura, el artículo se ordenará de la siguiente manera. En la sección 1, se expondrán los formalismos de las teorías de Shannon y de Schumacher. En la sección 2, se presentarán los argumentos de esta suerte de arrianismo informacional que concibe la existencia de dos tipos de información con naturalezas distintas: la información clásica y la información cuántica. En la sección 3, se objetará esta posición, argumentando que no existe un nuevo tipo de información y que las teorías formales de la información son neutrales respecto de la base física sobre la cual se implementan. Finalmente, se ofrecerán las conclusiones del trabajo, sugiriendo un concepto formal y unificado de información, donde los diferentes enfoques pueden concebirse en términos de la relación lógica de interpretación del formalismo.

1 Teorías formales de la información: Shannon y Schumacher

1.1 Teoría de la información de Shannon

Con su artículo de 1948, Claude Shannon revolucionó el ámbito de las comunica-ciones. Antes de la publicación de su artículo, se pensaba que el incremento en la tasa de transmisión de información a través de un canal aumentaría la probabilidad de errores en la transmisión. La teoría de la comunicación de Shannon mostró que este supuesto no era correcto. Siempre que la tasa de transmisión de información se encuentre por debajo de la capacidad del canal, puede transmitirse la información sin errores. Shannon ofreció una manera sencilla de calcular la capacidad del canal a partir de sus características, así como los recursos necesarios para una codificación óptima para una comunicación libre de errores. Rápidamente, la teoría de Shannon fue objeto de múl-tiples aplicaciones, en ámbitos como telefonía, radio y televisión. Más aún, esta teoría formal fue extrapolada a dominios como la biología molecular o la ecología, en principio- no relacionados con los problemas tecnológicos que le dieron origen (estas aplicaciones pueden consultarse en Linshitz, 1953; Yockey, 1992; Burnham & Anderson, 2002).

De acuerdo con la teoría de Shannon (Shannon, 1948; Shannon & Weaver, 1949), un sistema general de comunicación consiste de cinco partes:

  • Una fuente F, que genera el mensaje que recibirá el destinatario.

  • Un transmisor T, que convierte el mensaje generado en la fuente en una señal a ser transmitida.

  • Un canal C, que opera como medio para transmitir la señal desde el transmisor al receptor.

  • Un receptor R, que reconstruye el mensaje a partir de la señal.

  • Un destinatario D, que recibe el mensaje generado por la fuente.

Figura 1. Diagrama del sistema general de comunicación. 

El problema fundamental de la comunicación, en palabras de Shannon, consiste en "reproducir en un punto, aproximada o exactamente, un mensaje seleccionado en otro punto" (Shannon, 1948, p. 379). Esto es, reproducir en el destinatario un mensaje que ha sido seleccionado en la fuente. La articulación de los elementos de un sistema general de comunicación puede esquematizarse tal como se explica a continuación.

La fuente F es un sistema con un rango de estados posibles f 1 ,...f n , usualmente denominados letras, cuyas respectivas probabilidades de aparición están dadas por p(f 1 ),...,p(f n ) respectivamente. La cantidad de información generada en la fuente debido a la ocurrencia del estado se define como:

Puesto que la fuente produce secuencias de estados, usualmente denominadas "mensajes", puede definirse la entropía de la fuente F como el promedio ponderado de la cantidad de información producida en la fuente:

La caracterización del destinatario D se lleva a cabo de manera análoga: se trata de un sistema con un rango de estados posibles , con sus respectivas probabilidades . La cantidad de información recibida en el destinatario por la ocurrencia del estado se define como:

Finalmente, la entropía del destinatario D es definida como la cantidad media de información recibida en el sistema D:

Las cantidades definidas en las ecuaciones (1) a (4), donde se utiliza el loga-ritmo en base 2, usualmente son medidas en bits, contracción de "binary units". Naturalmente, podría utilizarse otra base para el logaritmo definiendo otra unidad de medida que cuantifique la cantidad de información. De esta manera, por ejemplo, si utilizamos el logaritmo en base 10, la unidad de medida será el Hartley, o el nat, si se utiliza el logaritmo natural. Esta consideración sugiere que la unidad utilizada para medir la información no debería por qué afectar la naturaleza de la información, a la que cuantifica. Este comentario será relevante más adelante cuando se presente la información cuántica y el qubit.

Al definir la entropía de la fuente y del destinatario, H(F) y H(F) respectivamente, el término "entropía" es un concepto que refiere a la cantidad promedio de información que se mide en ambos sistemas. En el contexto de la teoría de la comunicación de Shannon es claro que el concepto de "cantidad media de información" y el de "entropía" son mutuamente intercambiables. Con otras concepciones de la información o de la entropía esto puede no ser tan claro o, simplemente, no ser así: Norbert Wiener, por ejemplo, considera que una cantidad determinada de información está íntimamente correlacionada con una cantidad inversa de entropía (cf. Wiener, 1948). Tanto el concepto de información como el concepto de entropía son sumamente difíciles de interpretar de manera unívoca, y esta discusión continúa vigente hasta nuestros días. Más aún, es razonable suponer que elucidar cuál sea la relación entre ambos conceptos actualmente esté más lejos de nuestro alcance. Shannon era consciente de esta dificultad, y la razón por la cual llama "entropía" a la cantidad de información promedio en la fuente y el destinatario probablemente esté dada por la conocida histo-ria donde John von Neumann le sugiere este nombre.

Deberías llamarla entropía, por dos razones. En primer lugar, tu función de in-certeza ha sido utilizada en mecánica estadística bajo ese nombre. En segundo lugar, y más importante, nadie sabe qué es, realmente, la entropía, por lo tanto, en un debate siempre tendrás la ventaja (von Neumann apud Tribus & McIrving, 1971, p. 180).

Una vez definidas de manera precisa la entropía de la fuente H(F) y del destinatario H(D), es posible establecer las relaciones entre ambas cantidades. El siguiente diagrama permite ilustrar claramente este punto:

Figura 2. Diagrama de las relaciones entre cantidades. 

Donde:

  • H(F;D) es la transinformación o información mutua: la cantidad media de información generada en la fuente F y recibida en el destinatario D.

  • E es la equivocidad: la cantidad media de información generada en la fuente F pero que no es recibida por el destinatario D.

  • R es el ruido: la cantidad media de información recibida en el destinatario D pero que no proviene de la fuente F.

A partir de esas definiciones y del diagrama, es fácil ver cómo se pueden calcular las diferentes cantidades. Por ejemplo, la transinformación puede calcularse de la siguien- te manera:

Por otra parte, la equivocidad E y el ruido R son medidas de la dependencia entre la fuente F y el destinatario D:

  • Si F y D son completamente independientes, entonces el valor de E y R son má-ximos (E = H(f) y R = H(D), y el valor de H(F;D) es mínimo (H(F;D) = 0).

  • Si la dependencia entre F y D es máxima, los valores de E y R son mínimos (E = N = 0), y el valor de H(F;D) es máximo (H(F;D) = H(F) = H(D)).

Estas relaciones se comprenden con facilidad a partir del diagrama anterior: la primera situación estaría representada por un par de conjuntos sin intersección entre ellos y la segunda situación por un par de conjuntos que se solapan completamente.

La introducción de un canal de comunicación conduce, de manera directa, a la posi-bilidad de errores en el proceso de transmitir información, con lo cual, los valores de E y R no son sólo funciones de la fuente y el destinatario, sino también del canal de comunicación. El canal C (ver fig. 1) se define mediante una matriz [p(d j /f i )], donde [p(d j /f i )] es la probabilidad condicional de la ocurrencia de dj en el destinatario dado fi en la fuente. Si E y R son también funciones del canal, entonces es posible computar estas cantidades a partir de las propiedades del canal:

y

donde p(f i /d j )=p(d j /f i )p(f i /p(d j ). La capacidad CC del canal se define como:

donde el máximo se toma sobre todas las posibles distribuciones p(fi) en la fuente. CC es la mayor cantidad media de información que puede ser transmitida por un canal de comunicación C con error arbitrariamente pequeño.

El transmisor T (ver fig. 1) codifica los mensajes producidos por la fuente. La codi-ficación es un mapeo desde el alfabeto de la fuente al conjunto AF={f1,..., fn} de secuencias de longitud finita de símbolos tomados del alfabeto de codificación AC={c1,..., cq}. Tales secuencias se denominan "palabras de código". Mientras el número n de letras del alfabeto AF es generalmente cualquier número, el alfabeto de codifi-cación es usualmente binario: q = 2. En este caso, los símbolos son dígitos binarios, y el alfabeto de codificación se implementa físicamente mediante sistemas de dos estados.-

Las palabras que resultan de la codificación no tienen todas el mismo largo: cada palabra wi, correspondiente a la letra fi de la fuente, tiene un largo li. Esto significa que la codificación es un mapeo de longitud fija a longitud variable. La longitud media de las palabras de código se define como:

〈l〉 indica qué tan compacto es el código: cuanto menor es el valor de 〈l〉, mayor es la eficiencia del código, es decir, se necesitan menos recursos L=N〈l〉 para codificar los mensajes de longitud N. El teorema de codificación para un canal sin ruido (noiseless-channel coding theorem), conocido también como primer teorema de Shannon, prueba que, para mensajes suficientemente largos (idealmente, para N→∞), hay una codificación óptima tal que la longitud media del mensaje codificado resulta tan cercano como se desee a una cota mínima Lmin, que se calcula, en el caso binario, como:

La prueba del teorema se basa en el hecho de que los mensajes de N letras producidos por la fuente F pueden dividirse en dos clases: una de ellas que incluye los mensajes típicos, y la otra compuesta por los mensajes atípicos. Cuando , la probabilidad de un mensaje atípico tiende a cero; por lo tanto, la fuente puede concebirse como produciendo sólomensajes posibles. Esto sugiere una estrategia natural para la codificación: cada mensaje típico se codifica mediante una palabra de longitud NH(A), en general más corta que la longitud N del mensaje original.

El trabajo de Shannon ofreció otro resultado de gran importancia, a saber, el teorema de codificación para un canal con ruido (noisy-channel coding theorem), o segundo teorema de Shannon. Este teorema establece que la capacidad del canal es igual a la tasa máxima a la cual la información puede ser enviada por el canal y recuperada en el destinatario con una probabilidad de error indefinidamente baja.

Más allá de la simplicidad y precisión del formalismo introducido por Shannon, su interpretación no es, en absoluto, clara, lo cual ha conducido a múltiples debates conceptuales respecto de cómo interpretar las cantidades definidas en la teoría (para mayor detalle sobre los diferentes enfoques sobre el concepto de información, ver Adriaans, 2013; Timpson, 2004, 2013; Lombardi, 2004).

1.2 "Quantum coding": teoría de la información de Schumacher

Si bien la noción de información cuántica emerge alrededor de los años 1980 (cf. Bennett & Brassard, 1984; Deutsch, 1985), no es hasta 1995 que el concepto de información cuántica encuentra una definición precisa y un tratamiento formal adecuado en el artículo de Benjamín Schumacher, "Quantum coding".1 El principal objetivo del artículo es probar un teorema para la codificación cuántica análogo al primer teorema de Shannon. Algunos autores sostienen que el éxito de Schumacher al formular, utilizando sistemas cuánticos, un teorema análogo al primer teorema de Shannon es lo que ha "habilitado" el concepto de información cuántica y ha extendido la teoría de la información de Shannon (cf. Timpson, 2004, p. 23).

Al igual que Shannon, Schumacher define una fuente F como un sistema de n letras-estados fi con sus probabilidades de ocurrencia p(fi). La cantidad media de información generada por la fuente F se calcula, al igual que en la teoría de Shannon, mediante la ecuación (2); por lo tanto, F tiene una entropía de Shannon H(F). En la teoría de Schumacher el transmisor T mapea el conjunto de letras-estados fi de la fuente F sobre un conjunto de n estados│fi〉 de un sistema M. Los estados │fi〉 pertenecen a un espacio de Hilbert HM de dimensión dim (HM)=d y pueden ser no ortogonales. El sistema M es considerado una fuente de señal y la mezcla de sus estados puede representarse mediante un operador de densidad:

Para medir la entropía de este sistema se utiliza la entropía de von Neumann, que se calcula de la siguiente manera:

En el caso de que los estados │fi〉 sean mutuamente ortogonales, entonces la entropía de von Neumann es igual a la entropía de Shannon: S(ρ)=H(F). Para el caso general, se obtiene que S(ρ)≤H(F).

Sobre la base del mapeo que lleva a cabo el transmisor T, los mensajes (fi1, fi2,...,fiN) de N letras producidos por la fuente F se codifican mediante secuencias de N estados (│fi1〉, │fi2〉,...,│fiN〉), con i ∈ {1,2,...,n) . Esta secuencia puede re-pre-sentarse por medio del estado │αi1〉=│fi1〉, fi2,...,fiN) de un sistema MN, representado mediante un espacio de Hilbert HMN=HM⊗HM ⊗...⊗HM (N veces), de dimen-sión dN. Ese estado │α〉 se transmite a través de un canal C compuesto de L sistemas Q de dos estados llamados "qubits", donde cada qubit es representado en un espacio de Hilbert HC=HQ⊗HQ ⊗...⊗HQ (L veces) de dimensión 2•. Por lo tanto, el espacio de Hilbert del canal será de dimensión . De manera análoga al caso de la teoría de Shannon, L indica la compacidad del código: cuanto menor sea L, más eficien-te es la codificación, es decir, menos qubits son necesarios para codificar los mensajes.

Como se mencionó anteriormente, la teoría de la información de Schumacher pro-porciona una versión cuántica del primer teorema de Shannon. El teorema de codificación cuántica para un canal sin ruido prueba que, para mensajes suficientemente extensos, el número óptimo Lmin de qubits necesarios para transmitir los mensajes generados en la fuente con error ínfimo está dado por

Las dos teorías, la de Shannon y la de Schumacher, son sumamente precisas y tienen un enorme éxito en sus aplicaciones. Su claridad formal y elegancia matemática, sin embargo, no evitan que surjan en torno a ellas numerosos problemas conceptuales, fundamentalmente en lo que respecta a cómo interpretar las cantidades allí definidas y cómo relacionarlas entre sí, en particular, cómo relacionar la entropía o información de Shannon con la entropía o información de von Neumann. En la siguiente sección, se expondrá y analizará una posición muy extendida y que ha ido, lentamente, permeando las opiniones de científicos y filósofos respecto del tema.

2 Arrianismo informacional: dos tipos de información

Durante los siglos ii y iv de nuestra era, mientras el cristianismo buscaba institucio-nalizar sus prácticas y establecer su corpus doctrinal, surgieron naturalmente numerosas disputas entre las diferentes tesis teológicas que coexistían en la época. Entre ellas, la discusión acerca del arrianismo fue particularmente central. Contra la idea de una unidad consustancial entre Dios y el Hijo (que luego constituirá la base del dogma trinitario de una naturaleza con tres personas), el arrianismo sostuvo que Dios y el Hijo eran entidades de diferente naturaleza, una creadora y otra creada. La diferencia sustancial entre entidades no permitía la unidad entre ellas. Mutatis mutandis, podría identificarse una suerte de "arrianismo informacional" en filosofía de la información cuando se sostiene que no hay una información, sino que existen dos tipos distintos de información, cada uno con su naturaleza particular y sus propiedades específicas, o sea, la información clásica y la información cuántica.

La tesis central de esa posición queda claramente expresada en varios de los más importantes físicos especialistas en la llamada "teoría de la información cuántica" (quantum information theory). Por ejemplo, Richard Jozsa afirma que: "uno de los aspectos más fascinantes del trabajo reciente en teoría cuántica fundamental es la emergencia de una nueva noción, el concepto de información cuántica, el cual es muy diferente de su contraparte clásica" (Jozsa, 1998, p. 49). Câslav Brukner y Anton Zeilinger (2001), por su parte, argumentan que la teoría de Shannon no es aplicable en el contexto de la mecánica cuántica.

En física clásica, la información es representada como una secuencia binaria, i.e. una secuencia de bits, que pueden ser 1 o 0 (...) en una medición clásica la secuencia particular de valores de bits obtenidos pueden ser considerados físicamente definida por las propiedades del sistema clásico medido. La informa-ción es medida, por lo tanto, por la medida de Shannon de la información (...). En física cuántica, la información es presentada por una secuencia de qubits, cada uno de los cuales es definido en un espacio de Hilbert de dos dimensiones (Brukner & Zeilinger, 2001, p. 1-2).

En el ámbito de la filosofía de la física, Christopher Timpson también considera la existencia de dos conceptos claramente diferentes de información (en su sentido técnico, es decir, cuando se ocupa de cantidades de información, sus correlaciones y las características estadísticas de sus señales). Su posición se respalda en la idea de que el carácter cuántico o clásico de la información depende de qué tipo de fuente la produce: "si información clásica es la que es producida por una fuente clásica de información donde el prototipo es Shannon , entonces la información cuántica es la que es producida por una fuente cuántica de información" (Timpson, 2008, p. 24). Según este autor, el carácter cuántico de la información radica en las propiedades de la fuente que la produce, o sea, una fuente cuántica produce estados cuánticos (con sus particulares características) de los cuales puede predicarse que portan información. Timpson considera que esa idea se deriva del trabajo de Schumacher, quien siguió una estrategia análoga a la de Shannon en su trabajo.

Schumacher siguió el ejemplo de Shannon: considera un dispositivo una fuente cuántica la cual, en lugar de producir sistemas correspondientes a elementos de un alfabeto clásico, produce sistemas, en particular, estados cuánticos con su probabilidad(Timpson, 2006, p. 593).

Respecto de la relación entre ambos tipos de información, Brukner y Zeilinger se han esforzado en demostrar que la teoría de la información de Shannon no puede aplicarse para cuantificar y medir la información contenida en sistemas cuánticos: "queremos mostrar que la información de Shannon no es útil para definir la información contenida en un sistema cuántico" (Brukner & Zeilinger, 2001, p. 2). En cuanto a la información cuántica, algunos autores han visto en la entropía de von Neumann una "generalización de la noción de entropía de Shannon" (Bub, 2007, p. 576); con ello, la entropía de Shannon sería un caso particular de la entropía de von Neumann, sólo válida cuando los estados son ortogonales, ya que en ese caso resulta que S(ρ)=H(F), como se mostró en la sección 1. No obstante, esto no atenta contra la especificidad de la información cuántica; se trata de una información sustancialmente cuántica en una medida tal que la propia mecánica cuántica debería reformularse como una teoría sobre la información cuántica (cf. Bub, 2005).

Esta postura, que metafóricamente hemos denominado "arrianismo informa-cional", puede parecer justificada; incluso, resulta sumamente elegante ya que conserva cierta simetría entre la propuesta de Shannon y la de Schumacher. Las propiedades físicas de los sistemas cuánticos son bien conocidas y es claro que no tienen análogo en los sistemas clásicos. Bajo esa consideración, parece razonable suponer que la información involucrada en contextos donde se utilizan estados cuánticos es sustancial-mente distinta a los casos donde se transporta información mediante estados clásicos, justificando así la existencia de dos tipos diferentes de información. De este modo, pueden identificarse dos premisas que permiten sostener esta postura:

  • (a) La información que aparece en la teoría de Shannon, y es medida por la en-tropía de Shannon, es clásica porque está íntimamente ligada a los estados clásicos que la portan.

  • (b) La información que aparece en la teoría de Schumacher, y es medida por la entropía de von Neumann, es cuántica porque está íntimamente ligada a los estados cuánticos que la portan.

Hasta aquí, hemos presentado el núcleo del enfoque. Podrían distinguirse algunos matices, versiones más fuertes o más débiles. En particular, las tintas se cargan, principalmente para mostrar la peculiaridad de la información cuántica, lo cual habilitaría a hablar de ella como un tipo nuevo y especial de información. En la bibliografía, los argumentos tienden a mostrar ese punto y a inferir, a partir de allí, el carácter clásico de la información medida por la entropía de Shannon. A continuación, presentaremos algunos de los argumentos utilizados para sostener este enfoque.

2.1 Fuentes cuánticas y teoremas de codificación

Timpson es uno de los autores que sostiene la existencia de dos tipos distintos de información. Con independencia de su posición general "deflacionista", según la cual "información" es un nombre abstracto sin referencia física (cf. Timpson, 2013; Lombardi; Fortin & López, 2014). Timpson considera legítimo distinguir información cuántica de información clásica. Como se señaló más arriba, uno de los argumentos que utiliza Timpson para sostener esa idea se basa en la existencia de dos fuentes, con distintas propiedades, que producen información. El argumento, de modo general, podría reconstruirse del siguiente modo:

  • (1) Información es lo que es producido por una fuente que produce mensajes.

  • (2) Existen dos tipos de fuentes: una fuente cuántica y una fuente clásica. La primera produce estados cuánticos y la segunda, estados clásicos.

  • (3) Por lo tanto, existen dos nociones distintas de información: una cuántica y una clásica.

La primera premisa es central, y es uno de los elementos que Timpson utilizará para eluci-dar el concepto mismo de información y argumentar en favor de su postura defla-cionista.

Por lo tanto, podemos decir (muy generalmente) que en el sentido técnico, información es lo que un protocolo de comunicación se propone transmitir: información es lo que es producido por una fuente de información, y que debe ser reproducido si la transmisión ha de considerarse exitosa (Timpson, 2004, p. 21).

La segunda premisa parte de la interpretación que hace Timpson del trabajo de Schumacher, donde, según él, se postula la existencia de una fuente cuántica a partir del modo en que se modelan sus alfabetos o sus estados:

En lugar de comenzar considerando una fuente clásica, podríamos comenzar con una fuente cuántica. Si una fuente clásica es modelada por un conjunto A donde las letras son descriptas con probabilidad, una fuente cuántica será modelada, similarmente, por un conjunto de sistemas en estados , producidos con probabilidad (Schu-macher apud Timpson, 2004, p. 26).

Un segundo argumento, relacionado con el anterior, que permite sostener que la información cuántica consiste en un tipo singular y diferente de información, es el que se fundamenta en vincular el concepto de información con los teoremas de codi-ficación. Si los teoremas de codificación son diferentes en el caso cuántico y clásico, los conceptos de información correspondientes también serán diferentes. Evidentemente, una premisa central de este argumento es que resulta posible definir el concepto de información en términos de dichos teoremas, y esto es lo que Timpson, precisamente, sostiene:

Los teoremas de codificación, que introdujeron el concepto de información clási-ca (Shannon 1948) e información cuántica (Schumacher), no definen, meramente, la medida de esas cantidades. Ellos también introducen el concepto de lo que es transmitido, de lo que es medido (Timpson, 2008, p. 23; énfasis en el original).

Desde esta perspectiva, por lo tanto, las informaciones medidas por la entropía de Shannon y por la entropía de von Neumann indican el grado de compresión de los mensajes de las respectivas fuentes.

A modo de resumen: Timpson presenta dos argumentos para defender la existencia de dos conceptos claramente diferenciados de información. Su estrategia argumentativa general se fundamenta en los modos en los que se define el concepto de información: si la información se define en términos de la fuente que produce mensajes, entonces el concepto de información cuántica es legítimo porque existen fuentes cuánticas que producen información; por otro lado, si la información es definida vía los teoremas de codificación, teoremas de codificación distintos definirán conceptos distintos de información.

2.2 Bit y qubit como sistemas físicos

En la sección 1, presentamos al bit como la unidad de medida de la información de Shannon y al qubit como su correlato cuántico. Un argumento central para establecer una clara diferencia entre información clásica e información cuántica se basa en diferenciar las propiedades particulares del qubit de las propiedades de su análogo clásico, el bit. El argumento presupone que, tanto el bit como el qubit, no son meras unidades de medida de las entropías clásica y cuántica, respectivamente, sino que son los sistemas mismos que portan información. De esa manera, se entiende que el bit es un sistema clásico con dos estados, mientras que el qubit es un sistema cuántico de dos estados. Timpson, por ejemplo, afirma que "un bit clásico es algún objeto físico que puede ocupar uno de dos estados distintos, estados clásicos estables, convencionalmente nombrados por valores binarios 1 y 0" (Timpson, 2008, p. 200). E inmediatamente continúa: "Un qubit es el análogo cuántico preciso de un bit: es un sistema cuántico de dos estados" (2008, p. 201).

Richard Jozsa (1998) establece la misma distinción y señala una propiedad como elemento esencial que marca la diferencia entre bit y qubit. Esto le permite justificar por qué estamos habilitados a concebir a la información cuántica como una nueva clase de información. Según Jozsa, la fuente embebe la información (clásica) en un sistema físico de dos estados, el bit. El receptor, que no conoce en qué estado ha sido preparado el sistema, puede realizar una medición a fin de conocer el estado, "llevando a cabo una medición para identificar el estado (lo cual es siempre posible en física clásica, en principio), se adquiere la información" (Jozsa, 1998, p. 49). Según el autor, es en estos casos donde la teoría de Shannon ofrece una maravillosa y precisa descripción matemática del concepto de información. El caso del qubit es diferente.

El sistema cuántico más simple y no trivial es un sistema de dos niveles y usaremos el término de "qubit" (introducido por Schumacher) para referir a un sistema de dos niveles con una base orto-normal preferida denotada por {│0⟩,│1⟩}.

El estado general de un qubit puede ser designado por dos parámetros reales Θ y Φ:

Por lo tanto, es posible, aparentemente, codificar una cantidad arbitrariamente grande de información en los estados de un solo qubit (codificando la información en la secuencia de dígitos de Θ y Φ ) (Jozsa, 1998, p. 50).

Esto sugiere que un sistema cuántico puede llevar mucha más información que un sistema clásico, lo cual le conferiría enormes ventajas comunicativas. Sin embargo, la diferencia entre ambos conceptos de información, argumenta Jozsa, no radica en esta aparente ventaja cuantitativa, sino en las propiedades de los sistemas cuánticos, cualitativamente diferentes a las de sus análogos clásicos. Tal diferencia se pone de manifiesto cuando se toma en cuenta la distinción entre "información de especificación" e "información accesible". La información de especificación es la cantidad de información requerida para especificar la secuencia de estados de N sistemas de dos estados. La información accesible es la cantidad de información que puede ser recuperada por el destinatario a partir de una secuencia de mediciones. En el caso de la información clásica, "las dos cantidades coinciden, en tanto que los estados clásicos son perfectamente distinguibles" (Timpson, 2008, p. 4). Sin embargo, no sucede lo mismo en el caso de la información cuántica: si bien en principio se puede codificar una cantidad arbitrariamente grande de información en un qubit, gran parte de esa información no es accesible para el destinatario. Esto significa que existe información que es inaccesible. El argumento de Jozsa encuentra en esta propiedad el punto de toque para distinguir los dos tipos de información.

Sin embargo, en contraste con la física clásica, la teoría de la medición cuántica impone severas limitaciones sobre la cantidad de información que es posible obtener sobre la identidad de un estado cuántico dado, llevando a cabo cualquier medición sobre él. La mayoría de la información cuántica es inaccesible aunque todavía útil (Jozsa, 1998, p. 50).

El fenómeno de la inaccesibilidad de la información en el caso cuántico es aquello que, según Jozsa, permite distinguir la información cuántica de su correlato clásico y adjudicarle una serie de novedosas y curiosas propiedades. Por ejemplo, que no pueda ser copiada o que pueda viajar hacia atrás en el tiempo (cf. Jozsa, 1998; Penrose, 1998). Deutsch y Hayden (2000) desarrollan un argumento similar (aunque un poco más fuerte), distinguiendo entre información "localmente accesible" e información "localmente inaccesible".

Conviene enfatizar el papel fundamental que desempeñan las teorías físicas en la definición del concepto de información, para posiciones como las de Jozsa o Timpson. Si, como dijimos, el bit es un sistema de dos estados (que cae bajo el rango descriptivo de la física clásica) y nos permite definir la información clásica, entonces el qubit es un sistema cuántico descripto por la mecánica cuántica, y nos permite elucidar el concepto de información cuántica. El aspecto que diferencia ambos conceptos de información está dado, desde esta perspectiva, por las diferentes propiedades que poseen los sistemas físicos que actúan como portadores de esa información.

En resumen, el argumento presentado propone distinguir los conceptos de información clásica e información cuántica a partir de las propiedades físicas que poseen los sistemas físicos que intervienen en la transmisión de la información, a saber, el bit y el qubit. La premisa que permite estrechar el vínculo entre el sistema físico y el concepto de información radica en que se considera que el bit y el qubit no son meras unidades de medida, sino que son los sistemas físicos mismos que portan la información- y que, a la vez, permiten definir el concepto de información involucrado en cada caso.

2.3 La inadecuación de la teoría de Shannon en el caso cuántico

El tercer argumento al que suele apelarse a favor de considerar la información cuántica como una nueva clase de información se apoya en afirmar que la teoría de Shannon es inaplicable en los casos donde se transmite información mediante sistemas cuánticos. Este argumento es explícitamente presentado por Brukner y Zeilinger (2001), artículo donde los autores afirman que "la información de Shannon no es útil para definir la información contenida en un sistema cuántico" (2001, p. 1).

El argumento de Brukner y Zeilinger se basa en las particulares propiedades que presentan los sistemas cuánticos y, por lo tanto, también la información cuántica contenida en ellos. En esencia, los autores explotan un típico fenómeno de la mecánica cuántica, el de la existencia de estados superpuestos, y focalizan su atención en el conocido problema de la medición. La inadecuación de la teoría de Shannon para su aplicación a sistemas cuánticos radicaría en que esa teoría presupone una noción clásica de medición a la hora de extraer la información contenida en un sistema físico.

Cuando recuperamos la información que porta un sistema clásico, revelamos un cierto valor del bit, que existe antes de que la lectura haya sido llevada a cabo (...). Esto significa que en una medición clásica la secuencia particular de valores de bit obtenida puede ser considerada físicamente definida por las propiedades del sistema clásico medido (Brukner & Zeilinger, 2001, p. 1).

Ese procedimiento no puede llevarse a cabo del mismo modo en el caso en que los sistemas físicos que portan la información sean sistemas cuánticos. En particular, si el bit es un sistema físico de dos estados (y dos valores correspondientes a esos estados), un qubit es un sistema físico cuántico de dos estados donde la combinación lineal de los dos estados también es un estado posible del sistema. Cuando se intenta leer la información contenida en el qubit, se proyecta su estado sobre la base de medición , obteniéndose un valor 0 o 1. Pero, como afirman los autores, el valor observado revela el valor que el sistema tiene "sólo en el caso excepcional del qubit en un auto-estado del aparato de medición" (Brukner & Zeilinger, 2001, p. 1). En el caso general, por el contrario, "el valor obtenido por la medición tiene un elemento de aleatoriedad irreducible y, por lo tanto, no puede asumirse que revela el valor o incluso una propiedad oculta del sistema que existe antes de que la medición sea llevada a cabo" (Brukner & Zeilinger, 2001, p. 2).

Según Brukner y Zeilinger, en una secuencia de mediciones sobre qubits que se encuentran en una superposición de estados (con ), la secuencia particular de valores obtenidos de 1's y 0's no puede considerarse de ninguna manera que se encuentra definida antes de que la secuencia de mediciones haya sido llevada a cabo. El punto nevrálgico del argumento de los autores es, precisamente, la inexistencia de valores bien definidos de manera independiente a la medición, lo cual supuestamente pone de manifiesto la inadecuación de la teoría de Shannon a la hora de medir la información contenida en un qubit. En otras palabras, si la teoría de la información de Shannon permite definir de manera precisa y completa el concepto de información involucrado en sistemas clásicos, esta misma teoría es incapaz de hacerlo en contextos donde la información está contenida en sistemas cuánticos, ya que "ciertos elementos escapan a una completa descripción" (2001, p. 2).

Es cierto que el propósito central de Brukner y Zeilinger no es defender una duplicidad sustancial respecto del concepto de información, sino argumentar que la teoría de Shannon resulta inadecuada para cuantificar la información cuando se encuentra codificada en estados cuánticos. Sin embargo, esa incapacidad de la teoría de Shannon puede ser esgrimida como argumento para concluir que, en realidad, estamos tratando con un tipo de información muy distinto a aquél que trata la teoría formal de Shannon.

En esta sección hemos presentado una opinión muy difundida en la comunidad de físicos y de los filósofos de la información, que sostiene la existencia de dos tipos claramente diferenciados de información, la información clásica y la información cuántica. Más allá de qué estatus ontológico adscriban los autores a la información (un concepto abstracto sin referencia en nuestra realidad, como es el caso de Timpson, o una entidad física que forma parte del mobiliario del mundo, como es en el caso de Jozsa), los argumentos presuponen que, de una u otra manera, la información está íntimamente ligada al sistema físico que actúa como su portador, y éste, a su vez, cae bajo el rango descriptivo de una teoría formal, la de Shannon o la de Schumacher, según el sistema físico sea clásico o cuántico, respectivamente. A continuación objetaremos esta posición, argumentando que no existe un nuevo tipo de información, y que las teorías formales de la información son neutrales respecto de la teoría física que describe los sistemas involucrados en la generación, transmisión y recepción de la información.

3 Contra el arrianismo informacional: ¿dos tipos de información o dos formas de codificar la información?

En esta sección ofreceremos nuestros argumentos contra la posición presentada en la sección anterior. En particular, mostraremos que existen algunas confusiones a la hora de interpretar el trabajo de Schumacher y defender la idea de la información cuántica como un nuevo tipo de información. En este punto, defenderemos que no existe un concepto nuevo de información que se desprenda de su trabajo, sino una nueva manera de codificar la información utilizando estados cuánticos. Existe codificación cuántica de la información, no así un nuevo tipo cuántico de información. Además, señalaremos que la teoría de Shannon, pretendidamente clásica como contrapunto de la teoría cuántica de Schumacher, no es tal; se trata de una teoría neutral respecto de cualquier teoría física y, de hecho, puede aplicarse a casos que involucran sistemas cuánticos. De esta manera, pretendemos desarticular los argumentos centrales del arrianismo informacional, lo cual nos permitirá proponer un concepto unificado de información, la cual no es ni clásica ni cuántica; es simplemente información.

3.1 ¿Hay fuentes cuánticas? ¿Los teoremas permiten definir el concepto de información?

Como fue señalado en la sub-sección 2.1, Timpson sostiene dos estrategias para defi-nir- el concepto de información. Una de ellas, que concibe la información como aquello producido por una fuente de mensajes; la otra, que concibe la información como aquello caracterizado por los teoremas de codificación. Estas dos estrategias para definir el concepto de información tornan legítimo el concepto de información cuántica como diferente al de información clásica. La información cuántica es lo que es producido por una fuente cuántica (y no por una fuente clásica) y, además, es lo que es definido por el teorema de codificación cuántica de Schumacher (y no por el primer teorema de Shannon).

El problema central que subyace a la primera estrategia es que, bajo una lectura cuidadosa del artículo de Schumacher, no parece haber razones para sostener la existencia de fuentes cuánticas. En efecto, tal como se señaló en la sub-sección 1.2, Schumacher comienza definiendo una fuente de mensajes F que produce letras-estados con probabilidadsin apelar a ninguna característica cuántica en este nivel. Es sólo al momento de describir la codificación que Schumacher introduce lo que denomina "fuente cuántica de señales" la cual es "un dispositivo que codifica cada mensaje de la fuente F en un estado de señal de un sistema con probabilidad sin apelar a ninguna característica cuántica en este nivel. Es sólo al momento de describir la codificación que Schumacher introduce lo que denomina "fuente cuántica de señales" la cual es "un dispositivo que codifica cada mensaje de la fuente F en un estado de señal de un sistema cuántico M" (Schumacher, 1995, p. 2738; se ha adaptado la terminología a la utilizada en el presente trabajo). Esto significa que el estado cuántico involucrado en el proceso que Schumacher describe no proviene de la fuente de mensajes F, sino de un sistema M que es parte del dispositivo que codifica los mensajes que la fuente produce y los transforma en señales que serán transmitidas a través del canal. Esto significa que, en el esquema general de transmisión de información, el sistema M no forma parte de la fuente de información, sino que es parte del transmisor T. Un claro indicio en favor de esta lectura es que Schumacher elige para su artículo el título "Quantum coding", y no "Quantum information".

El argumento de Timpson, por lo tanto, se basa en dos confusiones. Por un lado, en asimilar el sistema M, que codifica los mensajes y produce señales, con la fuente F que genera los mensajes en un primer momento del proceso; por otro lado, en considerar que el estado cuántico │α⟩ es el mensaje producido por la fuente. Sin embargo, esto no es correcto o, al menos, no se sigue del texto de Schumacher. El sistema cuántico │α⟩ no es el mensaje que se envía desde la fuente al destinatario, sino que es la señal generada por el transmisor T y transportado hasta el receptor R, donde se procede a su decodificación. Esta etapa, que constituye sólo una parte del proceso total de comunicación, es lo que Schumacher denomina "transposición" de la señal del transmisor al receptor. En palabras sencillas, así como el sistema M no es la fuente que produce mensajes, sino parte del transmisor, el estado cuántico │α⟩ no es un mensaje sino una señal.-

No obstante, podría replicarse que nuestro argumento es una mera disputatio de nomine: ¿por qué no considerar a M como la fuente cuántica y definir la información cuántica como lo que es producido por la fuente M? En principio, se podría definir el concepto de información cuántica de cualquiera manera, ya que las definiciones son convencionales. Sin embargo, esta alternativa tiene una dificultad básica. Si la adoptamos, la comunicación consistiría en transportar estados cuánticos de una fuente M a un receptor M', con independencia de qué otros estados produce la fuente y de su distribución de probabilidades. En otras palabras, si la información cuántica es lo que genera una fuente cuántica, la cual produce estados cuánticos, enviar información cuántica resulta no ser más que transponer estados cuánticos. De hecho, si se olvida que la transposición es sólo una parte de la situación completa de comunicación y no se considera el papel que desempeñan la fuente de mensajes F y el destinatario D de los mensajes, entonces hablar de información cuántica resulta superfluo: podríamos remplazar el término "información cuántica" por "estado cuántico" y nuestro discurso no se vería afectado. Siguiendo en este punto a Armond Duwell, "es obvio que ya hay un concepto que cubre todas esas propiedades: el estado cuántico. El término 'información cuántica' es, entonces, sólo un sinónimo de un concepto viejo" (2003, p. 498).

De todos modos, quien intente defender un enfoque arrianista podría insistir apelando a la segunda estrategia que Timpson desarrolla para definir el concepto de información. Tal vez el concepto de información cuántica, si no depende de una supuesta fuente cuántica, sí dependa de su definición a partir del teorema de codificación cuán-tica. No obstante, consideramos que esa forma de proceder no logra lo que se propone. La estrategia de definir el concepto de información mediante los teoremas de co-dificación resulta inadecuada no sólo en el caso cuántico, sino también en el caso clásico.

Lo primero a destacar es que, al definir la entropía de Shannon mediante el teorema de codificación para un canal sin ruido, el teorema mismo se convierte en una definición. La información, o entropía de Shannon, ya no se define mediante la ecuación (2), es decir, como la cantidad media de información por letra generada en la fuente, sino que se define como el promedio de bits necesarios para codificar una letra de la fuente de mensajes utilizando un código ideal. Esto conlleva una serie de inconvenientes que no se presentan cuando se define la cantidad de información de la fuente como el propio Shannon lo hace.

  • Si el primer teorema de Shannon encarna la naturaleza misma del concepto de información clásica, entonces no tiene sentido hablar de cantidades individuales de información transportadas por un único estado. Esto se debe a que los teoremas de codificación se prueban para casos donde los mensajes son muy largos, estrictamente, para mensajes de una longitud N→∞. Por lo tanto, no sólo no podría cuantificarse la información que lleva un único mensaje, sino que ni siquiera podría decirse que un mensaje único lleva información, puesto que el propio concepto de información adquiere significado bajo las condiciones de validez de los teoremas de codificación de Shannon.

  • Al definir el concepto de información mediante los teoremas de codificación, no queda claro cómo es posible hablar de información en los casos en donde no existe codificación. Por ejemplo, en la telefonía tradicional, el transmisor opera como un mero transductor que convierte la presión de sonido en una corriente eléctrica proporcional a dicha presión y que es transportada de manera analógica por las líneas de transmisión telefónicas. En estos casos, donde los teoremas de codificación no juegan ningún papel, no sería posible afirmar que se ha transmitido una cierta cantidad de información entre la fuente y el destinatario de los mensajes.

  • Bajo el supuesto de que es aceptable definir la entropía H(F) de la fuente sobre la base del teorema de codificación para un canal sin ruido, ¿qué sucede con H(D)? En la presentación original de Shannon, las ecuaciones (2) y (4) son simétricas en el sentido de que cada una define la cantidad de información correspondiente del mismo modo, es decir, como promedio ponderado sobre las cantidades individuales I(fi) e I(di). Pero si se adopta la estrategia de Timpson, no es posible definir H(D) mediante el Primer Teorema en la medida en que tal magnitud no está involucrada en el teorema. Podría sugerirse que mientras H(F) se define mediante el primer teorema de Shannon, H(D) sí se define por la -ecuación (4). Sin embargo, frente a esto se impone la pregunta de por qué su definición es tan diferente a la definición de H(F) mediante el teorema de codificación, rompiendo la simetría que existía en la presentación de Shannon. Además, es sumamente extraño que la entropía de la fuente pueda ser computada mediante el promedio de cantidades individuales de información, mientras que en el caso de H(F) las cantidades individuales no representan información. Por otra parte, si, como parece naturalmente seguirse de esta segunda estrategia de Timpson, H(D) no representa una cantidad de información, entonces no es en absoluto claro cómo puede operar algebraicamente junto a H(F): ¿de qué manera números que representan magnitudes diferentes pueden ser sumados o restados entre sí?

En el caso cuántico, la estrategia de definir la entropía de von Neumann S(ρ) en términos del teorema de codificación de Schumacher parece más razonable. Preci-samente, S(ρ) juega un papel fundamental en la etapa de codificación y es una propiedad de la fuente de señales M. Pero, como se argumentó previamente, no puede aplicarse a la fuente de mensajes F. Por lo tanto, utilizar el teorema de codificación de Schumacher para definir la información contenida en la fuente de mensajes es volver a caer en el error denunciado anteriormente, o sea, identificar, impropiamente, la etapa de la generación de mensajes en la fuente y la etapa de la codificación de los mensajes en el transmisor.

En definitiva, los contra-argumentos presentados permiten concluir que el primero de los argumentos arrianistas destinados a sostener la existencia de un nuevo tipo de información, supuestamente introducido en el trabajo de Schumacher como correlato cuántico de la información de Shannon, no parece contar con suficiente respaldo. Por un lado, de acuerdo con el artículo de Schumacher, no parece legítimo hablar de una fuente cuántica de mensajes: los sistemas cuánticos intervienen en el proceso de transmitir información en la etapa de codificación de los mensajes que la fuente produce. Por otro lado, la estrategia de definir el concepto de información mediante los teoremas de codificación se presenta como una estrategia poco viable, puesto que impide utilizar el concepto de información en situaciones que se consideran inequívocamente informacionales.

3.2 Reificación del bit y del qubit: algunas confusiones en torno a estos conceptos

El segundo argumento arrianista, presentado en la sub-sección 2.2, apelaba a una dife-rencia sustancial entre las propiedades clásicas del bit y las propiedades cuánticas del qubit, ambos considerados como sistemas físicos portadores de información. El punto nos conducía a aceptar un nuevo tipo de información a partir de las singulares propiedades físicas del qubit.

Como señalamos al presentar la teoría formal de Shannon, originalmente el bit fue considerado una unidad de medida de la información, que corresponde al uso del logaritmo en base dos. En tanto tal, en nada contribuye al concepto de información; en efecto, existen otras unidades de medida de la información que, si bien menos difundidas, no por ello son menos legítimas. Sin embargo, con la introducción del concepto de información cuántica y el qubit como sistema cuántico de dos estados, se produjo un progresivo proceso de reificación del propio concepto de bit, precisamente para hacerlo análogo con su correlato cuántico. De esa manera, se impuso una manera de hablar donde qubit y bit no son ya meras unidades de medida, sino que refieren a sistemas físicos: a un sistema cuántico de dos estados o un sistema clásico de dos estados, respectivamente. Lo problemático es que el significado de "bit" y "qubit" se ha oscurecido, y muchas veces no es claro si estos términos se utilizan como unidad de medida o como refiriendo a un objeto físico. Algunos autores han advertido esa ambigüedad en su significado: "quisiera distinguir dos usos de la palabra 'bit'. Primero, 'bit' refiere a una unidad de información que cuantifica la incerteza de dos opciones equipro-bables. Segundo, 'bit' también refiere a un sistema que puede estar en uno de dos estados discretos" (Duwell, 2003, p. 486).

A la base de ese tipo de argumento subyacen dos confusiones importantes. La primera es de índole conceptual y consiste en confundir un sistema físico con una unidad de medida. Confundir una unidad de medida con un sistema físico es como confundir la noción de metro con el metro patrón que se encuentra en Paris, un objeto que es una aleación de platino e iridio. Lo mismo se aplica a la confusión entre bit (como unidad de medida de la información) y el sistema físico que porta la información. Por lo tanto, decir, por ejemplo, que la entropía de Shannon H(F) ofrece una medida "en bits (sistemas de dos estados)" (Timpson, 2006, p. 592) es como decir que una longitud L ofrece una medida "en metros (barras de platino-iridio)". Carlton Caves y Christopher Fuchs (1996), advirtiendo esta dualidad, propusieron una nueva terminología a fin de evitar confusiones. Por analogía al qubit (que, según la propuesta de los autores, designa un sistema cuántico de dos estados que se utiliza en la codificación de la información), el sistema clásico de dos estados utilizado en la codificación de información en el esquema de Shannon debe ser designado por el término "cbit". Esta terminología resulta sumamente interesante ya que hace explícita la distinción entre la cantidad de información que produce una fuente de mensajes (la cual es medida, usualmente, en bits) y los sistemas físicos de q estados utilizados para implementar físicamente la codificación.

La segunda confusión es la ya descripta en la sub-sección anterior. La insuficiente distinción entre la fuente de mensajes y la fuente de señales perteneciente al transmisor o, en otras palabras, entre la etapa de generación de la información y la etapa de codificación de la información. La información es generada en la fuente de mensajes y medida por la entropía de Shannon, la cual sólo depende de las características de la fuente y puede ser expresada en bits o en cualquier unidad de medida, ya que su elección no afecta la naturaleza misma de la información allí producida (tal como se mostró cuando presentamos el formalismo de Shannon). En un segundo momento, la información generada es codificada mediante sistemas físicos que pueden ser clásicos o cuánticos, es decir, mediante cbits o mediante qubits. Los recursos necesarios para codificar la información vienen dados, en el primer caso, por el primer teorema de Shannon y, en el segundo, por el teorema de codificación cuántica para un canal sin ruido de Schumacher. Por lo tanto, todas las peculiaridades que encontrábamos en la presunta información cuántica son, en realidad, características de la codificación cuántica: "las propiedades [supuestamente propias de la información cuántica] dependen del tipo de sistema físico utilizado para almacenar la información, no de nuevas propiedades de la información" (Duwell, 2003, p. 481).

Las razones aducidas por Jozsa para sostener la diferencia entre información clásica e información cuántica asumían estas confusiones y, por lo tanto, no resultan plausibles. El fenómeno de inaccesibilidad no es una propiedad de una nueva entidad como la información cuántica sino que es una propiedad de los sistemas cuánticos que portan la información, introducidos a nivel de la codificación. En efecto, la medición que se efectúa sobre M' es un proceso de decodificación en el receptor, que intenta reconstruir, a partir de la señal producida en el sistema M y enviada a través del canal, el mensaje original producido en la fuente. Ahora bien, aunque la información sea transmitida con fidelidad perfecta entre los sistemas M y M', si los estados que se utilizaron para la codificación son no ortogonales, las mediciones que se lleven a cabo sobre M' no serán suficientes para recuperar los estados generados en el sistema M. Esto significa que la reconstrucción del mensaje original no será perfecta y habrá información perdida entre fuente y destinatario, por lo cual la cantidad de información producida en la fuente será mayor a la cantidad de información recibida en el destinatario.

Este resultado puede expresarse en términos formales recordando que, como fue señalado al introducir el formalismo de Schumacher, cuando los estados │f i1 ⟩ utilizados para codificar los mensajes son mutuamente ortogonales, entonces resultan ser los autoestados de ρ y las p(f i ) son sus autovalores; por lo tanto, se obtiene que S(ρ) = H(F). Pero, cuando los estados │f i1 ⟩ no son ortogonales, entonces se cumple la siguiente desigualdad: S(ρ)<H(F). Por otra parte, el llamado "límite de Holevo" ("Holevo bound") (cf. Holevo, 1973) establece una cota máxima para la información mutua en el caso de codificación cuántica: H(F;D) ≤ S(ρ). Por lo tanto, en general, cuando se utilizan estados no ortogonales para la codificación, la información mutua es siempre menor que la información generada por la fuente, H(F;D) < H(F), y, puesto que siempre H(D) ≤ H(F;D), por transitividad puede concluirse que, en el caso de codificación cuántica con estados no ortogonales:

Esto significa que la inaccesibilidad de la que nos habla Jozsa puede perfectamente expresarse en el marco del formalismo de Shannon como una pérdida de información entre fuente y destinatario que se manifiesta por una equivocidad mayor que cero: E > 0.

¿Hay algo de novedoso y enigmático respecto de la información en este punto? No parece ser el caso. Sólo se trata de utilizar un proceso de codificación (mediante estados no ortogonales) que produce pérdida de información ya que resulta en una deco-dificación imperfecta. Lo enigmático en este punto es la existencia de estados no ortogonales y el problema cuántico de la medición, pero éste es un misterio de la mecánica cuántica y no de un tipo especial de información. Desde un punto de vista infor-macional, lo relevante es la pérdida de información, independientemente que ésta se deba a la codificación en estados cuánticos no ortogonales o a cualquier otro motivo. Por lo tanto, el argumento de la inaccesibilidad de los estados cuánticos no parece brindar elementos suficientes para considerar la existencia de una información cuántica como un tipo de información distinto a la información clásica.

3.3 ¿Es la teoría de Shannon realmente inadecuada en el ámbito cuántico?

Hasta el momento hemos considerado los dos primeros argumentos expuestos en la sección 2, señalando algunas confusiones existentes en sus presupuestos, como la insuficiente distinción entre la etapa de generación y la etapa de codificación de los mensajes, así como entre la información y el sistema físico que la implementa. El argumento que subsiste aún es el que se basa en la tesis de Brukner y Zeilinger, según la cual la teoría de Shannon resultaría inadecuada para su aplicación a situaciones donde la información está contenida en estados cuánticos. Como fue señalado en la sub-sección 2.3, la piedra de toque del argumento de los autores se basa en concebir la teoría de Shannon como una teoría diseñada para lidiar con sistemas clásicos y comprometida con una concepción clásica de la medición; por este motivo, no podría dar cuenta de la información contenida en estados cuánticos, que exigiría una concepción no clásica de la medición. Ciertamente, los argumentos desarrollados en las dos sub-secciones anteriores podrían también aplicarse contra la posición de Brukner y Zeilinger. El concepto de información no parece depender de cómo se codifique la información y, como se vio, los sistemas cuánticos son introducidos en la etapa donde se producen las señales que resultan de la codificación de la información generada por la fuente. No obstante, en esta sub-sección nos ocuparemos de atacar otras de las confusiones extendidas respecto del concepto de información, confusión que Brukner y Zeilinger explícitamente asumen en su trabajo: el supuesto de que la teoría de Shannon es una teoría de la información clásica, es decir, una teoría íntimamente ligada a sistemas físicos clásicos y a la física clásica.

Uno de los argumentos contra la posición de Brukner y Zeilinger es el esgrimido por Timpson (2003) de manera clara y acertada. Nada hay en la teoría de Shannon que requiera secuencias actuales de letras-estados en la fuente para definir la entropía de la fuente F. En efecto, como se mostró al presentar el formalismo de la teoría en la sub-sección 1.1, H(F) sólo depende de las características estadísticas de la fuente, es decir, de sus estados y correspondientes probabilidades. Pero a ese nivel nada se ha dicho acerca de cómo interpretar tales probabilidades ni de cómo se las determina. Se las podría concebir como propensiones computadas de manera teórica o como frecuencias efectivamente medidas. Por lo tanto, la medición de una secuencia actual de estados no es necesaria para definir y computar la entropía de Shannon y, en consecuencia, no se ve en qué sentido la teoría de Shannon se compromete con una concepción clásica de medición.

Tales consideraciones nos permiten enfatizar que, en la definición de los elementos involucrados en la teoría formal de Shannon, no se presupone ningún sustrato físico; las letras-estados de la fuente de mensajes no son estados físicos, sino que son implementadas por estados físicos. Es por eso que la teoría de Shannon no es clásica en ningún sentido físicamente relevante, sino que es neutral e independiente de la teoría física que describe las partes que componen el sistema de comunicación. Por lo tanto, bajo esas consideraciones es legítimo afirmar que la teoría de la información de Shannon puede "aplicarse a cualquier sistema de comunicación sin considerar si sus partes son mejor descriptas por la mecánica clásica, la electrodinámica clásica, la teoría cuántica o cualquier otra teoría física" (Duwell, 2003, p. 480). Una vez que reconocemos, siguiendo las palabras de Duwell, el carácter neutral de la teoría de Shannon, nada nos impide aplicarla al contexto de la mecánica cuántica. De hecho, como se mostró en la sub-sección anterior, cuando la información se codifica en estados cuánticos orto-gonales, la pérdida de información que se produce puede ser representada en tér-mi-nos de equivocidad E tal que la información mutua puede computarse como la diferencia entre la entropía de la fuente y la pérdida representada por E: H(F;D) = H(F) - E (cf. Schumacher, 1995, p. 2739).

La pluralidad de aplicaciones que tiene el concepto de información de Shannon es posible gracias a una gran abstracción respecto de su contenido, lo que lo vuelve un concepto sumamente versátil. Pero, a su vez, esto lo convierte en un concepto sumamente complejo a la hora de ser interpretado. El propio Shannon afirma que los elementos definidos en su teoría no tienen dimensión semántica, y que su teoría se ocupa exclusivamente de cuantificar la información (Shannon, 1948, p. 379).

De hecho, actualmente los libros de texto sobre teoría de la información presentan la teoría de Shannon desde un punto de vista completamente formal, sin apelar a fuentes, ni señales, ni destinatarios. El formalismo se introduce en términos de conjuntos de variables aleatorias y distribuciones de probabilidad sobre sus valores posibles. Sus aplicaciones físicas, como el caso tradicional de la comunicación, son sólo algunas de las múltiples aplicaciones posibles de la teoría. Este punto de vista formal es presentado por Thomas Cover y Joy Thomas (1991) cuando afirman que

La teoría de la información responde dos cuestiones fundamentales en teoría de la comunicación: cuál es la mayor compresión de datos (...) y cuál es la tasa mayor de transmisión de comunicación (...). Por esta razón algunos consideran que la teoría es un subconjunto de la teoría de la comunicación. Argumentaremos que es mucho más que eso. De hecho, tiene contribuciones fundamentales para brindar en física estadística (termodinámica), en ciencias de la computación (complejidad de Kolmogorov o complejidad algorítmica), en inferencia estadística (la Navaja de Occam: 'la explicación más simple es la mejor'), y en probabilidad y estadística (tasas de error para estimación y testeo óptimos de hipótesis) (Cover & Thomas, 1991, p. 1).

Esta forma de abordar la teoría por parte de los textos actuales sobre teoría de la información acuerda completamente con nuestra afirmación sobre el carácter neutral del formalismo de Shannon, ya que no liga en sentido alguno la teoría de la información con teorías físicas o propagación de señales. A su vez invita a sostener una posición pluralista respecto del concepto de información ya que cada interpretación (física, biológica, epistémica etc.) puede concebirse como un modelo diferente de un único concepto formal (cf. Lombardi; Fortin & Vanni, en prensa).

Conclusiones

En el presente trabajo hemos argumentado contra una posición, que hemos denominado "arrianismo informacional", predominante en la comunidad científica y filosófica de la información, según la cual existe un nuevo tipo de información, la información cuántica, cualitativamente diferente de la información clásica. Para ello, en primer lugar presentamos formalmente las teorías de Shannon y de Schumacher. Luego, expusimos los argumentos de quienes defienden la legitimidad del concepto de información cuántica, ya sea refiriendo a un nuevo y sorprendente tipo de entidad física (cf. Jozsa, 1998), ya sea refiriendo a un nuevo concepto propio del trabajo de Schumacher, que no tiene lugar en la teoría de Shannon (cf. Timpson, 2004; 2006; 2008; 2013). Nuestros argumentos intentaron desarticular esas posturas, principalmente exponiendo una serie de confusiones y presupuestos poco plausibles que se encuentran a la base de los argumentos que intentan respaldarlas.

Por un lado, una de esas confusiones radica en no distinguir diferentes etapas en el proceso de transmisión de la información, en particular, asimilar la fuente que produce mensajes con el transmisor que produce las señales físicas portadoras de la información ya codificada. Como hemos argumentado, es en esta última etapa donde la mecánica cuántica hace su aparición, ya que la información puede ser codificada mediante sistemas cuánticos de dos estados. Sin embargo, como mostramos, esto no nos habilita a hablar de información cuántica como un nuevo tipo de información, sino de información codificada mediante sistemas cuánticos.

Por otro lado, hemos intentado socavar el supuesto vínculo existente entre las teorías formales de la información y las teorías físicas que describen los sistemas concretos que portan la información. En este punto, no creemos, como sostiene Bub, que la teoría de Schumacher sea una generalización de la teoría de Shannon. Ni tampoco aceptamos que la teoría de Shannon sea una teoría de la información clásica per se, como Brukner y Zeilinger suponen. Por el contrario, nuestras consideraciones se dirigieron a concluir que la teoría formal de Shannon es neutral respecto de las teorías físicas que puedan utilizarse para su implementación y que, en virtud de ello, tiene un enorme rango de aplicación.

Los argumentos que hemos esgrimido nos conducen a concebir un concepto unificado de información. No existen dos tipos de información, sino maneras diferentes de codificarla. Naturalmente, el problema de qué es la información está aún lejos de resolverse y apenas ha sido abordado en este artículo. No obstante, al eliminar algunas confusiones y adoptar una noción físicamente neutral, creemos que hemos dado los primeros pasos hacia un concepto de información puramente formal y abstracto que puede adquirir muy diversos contenidos. Desde esta perspectiva, el problema de cómo interpretar el concepto de información ya no consiste en la elección de único modo de concebirlo, sino que se convierte en analizar la relación lógica entre un objeto puramente formal y sus interpretaciones semánticas, cada una de las cuales dota al concepto de un contenido referencial específico. Por ejemplo, el enfoque episté-mico, que establece un fuerte vínculo entre información y conocimiento, es sólo una de las múltiples interpretaciones, la cual resulta útil en campos como la psicología o las ciencias cognitivas; el concepto de información puede así ser utilizado para conceptualizar las habilidades humanas de adquirir conocimiento (cf. Hoel; Albantakis & Tononi, 2013). La interpretación epistémica también puede servir como motivación filosófica para adscribir una dimensión semántica a una teoría formal de la información (cf. MacKay, 1969; Nauta, 1972; Dretske, 1981). A su vez, la interpretación física (cf. Landauer, 1991; 1996; Kosso, 1989), que concibe la información como una magnitud física, resulta adecuada en teoría de la comunicación, donde el principal problema consiste en optimizar la transmisión de datos mediante señales físicas cuya energía y ancho de banda están constreñidos por limitaciones tecnológicas y económicas. También es posible ofrecer otras interpretaciones físicas, donde la información pueda interpretarse en términos de la entropía termodinámica.

Si se admite que el concepto de información es un concepto formal y que los diferentes enfoques son sus diversas interpretaciones, lo más razonable es abandonar un enfoque monista respecto de cómo interpretar el concepto de información y adoptar, en su lugar, una posición pluralista. Desde tal pluralismo informacional, cada una de las interpretaciones del concepto de información resulta legítima para extender su aplicación en un cierto dominio científico o campo tecnológico. En este sentido, un enfoque formal como el propuesto adquiere un lugar relevante para dar cuenta de la enorme presencia del concepto en las más variadas actividades humanas. Pero también encuentra su eco en la posición del propio Shannon cuando afirma que

diferentes autores han dado diferentes significados a la palabra 'información' en el campo general de la teoría de la información (...). Es difícil esperar que un concepto simple de información pueda dar cuenta, satisfactoriamente, de las numerosas aplicaciones posibles de este campo general (Shannon, 1993, p. 180).

Agradecimientos

Agradecimientos. Estamos profundamente agradecidos a Jeffrey Bub por sus estimulantes comentarios respecto de nuestro trabajo sobre teoría de la información, y a Dennis Dieks por su respaldo constante. Este trabajo ha sido parcialmente financiado por un Large Grant del Foundational Questions Institute (FQXi), y por subsidios del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) y de la Agencia Nacional de Promoción Científica y Tecnológica (ANPCyT).

Referencias Bibliográficas

Adriaans, P. Information. In: Zalta, E. N. (Ed.). The Stanford encyclopedia of philosophy, 2013. Disponible en: <http://plato.stanford.edu/archives/fall2013/entries/information/>. Acceso en: 29 oct. 2014. [ Links ]

Bennett, C. H. & Brassard, G. Quantum cryptography: public key distribution and coin tossing. Proceedings of IEEE International Conference on Computers, Systems and Signal Processing. Bangalore, India, 1984. p. 175-9. [ Links ]

Brukner, È. & Zeilinger, A. Conceptual inadequacy of the Shannon information in quantum measurements. Physical Review A, 63, p. 1-10, 2001. [ Links ]

Bub, J. Quantum mechanics is about quantum information. Foundations of Physics, 35, p. 541-60, 2005. [ Links ]

_____. Quantum information and computation. In: Butterfield, J. & Earman, J. (Ed.). Philosophy of physics. Amsterdam: Elsevier, 2007. p. 555-660. [ Links ]

Burnham, K. & Anderson, D. Model selection and multimodel inference: a practical information-theoretic approach. New York: Springer, 2002. [ Links ]

Butterfield, J. & Earman, J. (Ed.). Philosophy of physics. Amsterdam: Elsevier, 2007. [ Links ]

Caves, C. M. & Fuchs, C. A. Quantum information: how much information in a state vector? In: Mann, A. & Revzen, M. (Ed.). The dilemma of Einstein, Podolsky and Rosen - 60 years later. Haifa: Israel Physical Society, 1996. p. 226-57. [ Links ]

Cover, T. & Thomas, J. A. Elements of information theory. New York: Wiley, 1991. [ Links ]

Deutsch, D. Quantum theory, the Church-Turing principle and the universal quantum computer. Proceedings of the Royal Society of London A, 400, p. 97-117, 1985. [ Links ]

Deutsch, D. & Hayden, P. Information flow in entangled quantum systems. Proceedings of the Royal Society of London A, 456, p. 1759-74, 2000. [ Links ]

Dretske, F. Knowledge & the flow of information. Cambridge: The MIT Press, 1981. [ Links ]

Duwell, A. Quantum information does not exist. Studies in History and Philosophy of Modern Physics, 34, p. 479-99, 2003. [ Links ]

Floridi, L. Information a very short introduction. Oxford: Oxford University Press, 2010. [ Links ]

_____. The philosophy of information. Oxford: Oxford University Press, 2011. [ Links ]

Hilbert, M. & López, P. The world's technological capacity to store, communicate and compute information. Science, 332, p. 60-5, 2011. [ Links ]

Hoel, E.; Albantakis, L. & Tononi, G. Quantifying causal emergence shows that macro can beat micro. Proceedings of the National Academy of Sciences, 110, p. 19790-5, 2013. [ Links ]

Holevo, A. S. Information theoretical aspects of quantum measurement. Problemy Peredachi Informatsii, 9, p. 31-42, 1973. [ Links ]

Jozsa, R. Quantum information and its properties. In: Lo, H.-K.; Popescu, S. & Spiller, T. (Ed.). Introduction to quantum computation and information. Singapore: World Scientific, 1998. p. 49-75. [ Links ]

Kosso, P. Observability and observation in physical science. Dordrecht: Kluwer, 1989. [ Links ]

Landauer, R. Information is physical. Physics Today, 44, p. 23-9, 1991. [ Links ]

_____. The physical nature of information. Physics Letters A, 217, p. 188-93, 1996. [ Links ]

Linschitz, H. The information content of a bacterial cell. In: Quastler, H. (Ed.). Essays on the use of information theory in biology. Urbana: University of Illinois Press, 1953. p. 251-62. [ Links ]

Lo, H.-K.; Popescu, S. & Spiller, T. (Ed.). Introduction to quantum computation and information. Singapore: World Scientific, 1998. [ Links ]

Lombardi, O. What is information? Foundations of Science, 9, p. 105-34, 2004. [ Links ]

Lombardi, O.; Fortin, S. & López, C. Deflating the deflationary view of information, 2014. Disponible en: <http://philsci-archive.pitt.edu/id/eprint/10910>. [ Links ]

Lombardi, O.; Fortin, S. & Vanni, L. A pluralist view about information. Philosophy of Science. En prensa. [ Links ]

MacKay, D. Information, mechanism and meaning. Cambridge: The MIT Press, 1969. [ Links ]

Mann, A. & Revzen, M. (Ed.). The dilemma of Einstein, Podolsky and Rosen - 60 years later. Haifa: Israel Physical Society, 1996. [ Links ]

Nauta, D. The meaning of information. The Hague: Mouton, 1972. [ Links ]

Penrose, R. Quantum computation, entanglement and state reduction. Philosophical Transactions of the Royal Society of London A, 356, p. 1927-39, 1998. [ Links ]

Quastler, H. (Ed.). Essays on the use of information theory in biology. Urbana: University of Illinois Press, 1953. [ Links ]

Rickles, D. (Ed.). The Ashgate companion to the new philosophy of physics. Aldershot: Ashgate, 2008. [ Links ]

Schumacher, B. Quantum coding. Physical Review A, 51, p. 2738-47, 1995. [ Links ]

Shannon, C. The mathematical theory of communication. Bell System Technical Journal, 27, p. 379-423, 1948. [ Links ]

_____. The lattice of theory of information. In: Sloane, N. & Wyner, A. (Ed.). Collected papers of C. Shannon. New York: IEEE Press, 1993. [ Links ]

Shannon, C. & Weaver, W. The mathematical theory of communication. Urbana/Chicago: University of Illinois Press, 1949. [ Links ]

Sloane, N. & Wyner, A. (Ed.). Collected papers of C. Shannon. New York: IEEE Press, 1993. [ Links ]

Timpson, C. On a supposed conceptual inadequacy of the shannon information in quantum mechanics. Studies in History and Philosophy of Modern Physics, 34, p. 441-68, 2003. [ Links ]

_____. Quantum information theory and the foundations of quantum mechanics. Oxford, 2004. PhD dissertation [Physics]. University of Oxford. (quant-ph/0412063) [ Links ]

_____. The grammar of teleportation. The British Journal for the Philosophy of Science, 57, p. 587-621, 2006. [ Links ]

_____. Philosophical aspects of quantum information theory. In: Rickles, D. (Ed.). The Ashgate companion to the new philosophy of physics. Aldershot: Ashgate, 2008. p. 197-261. [ Links ]

_____. Quantum information theory and the foundations of quantum mechanics. Oxford: Oxford University Press, 2013. [ Links ]

Tribus, M. & McIrving, E.C. Energy and information. Scientific American, 225, p. 179-88, 1971. [ Links ]

Wiener, N. Cybernetics or control and communication in the animal and the machine. Massachusetts: The MIT Press, 1948. [ Links ]

Yockey. H. Information theory and molecular biology. Cambridge: Cambridge University Press, 1992. [ Links ]

1 La creación del término "información cuántica", a mediados de la década de 1990, puede haber sido motivada, al menos parcialmente, por una razón sociológica: el intento de definir una sub-disciplina como espacio profesional valorizado. Un caso análogo es la creación del término "óptica cuántica" a mediados de la década de 1960, como un movimiento de revalorización de la óptica luego de la creación del láser, siendo que, de hecho, buena parte de lo que se denominaba óptica cuántica no era más que óptica clásica o la utilización de métodos semi-clásicos. (Agradecemos- a uno de los réferis anónimos el haber llamado nuestra atención acerca de la importancia de señalar esta cuestión).

Creative Commons License This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License, which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.