Você não passa de um código

« voltar





Fábio Adiron

O termo infonomia (ou infonomics se preferir na sua forma original) é a teoria, o estudo e a disciplina que afirma a importância econômica da informação. Ela se dedica a aplicar os princípios e práticas econômicos e de gestão de ativos para a avaliação, manuseio e implantação de ativos de informação.

O termo cunhado por Doug Laney da Gartner no começo da década passada (e que depois virou um livro em 2017) fala a respeito de como a informação se tornou um ativo valioso para empresas.

Muitos de nós que trabalhamos com dados desde o milênio passado já sabíamos disso, e todos aqueles que começaram a trabalhar nesse milênio sabem tão bem quanto nós que isso é verdade.

O que talvez você não soubesse é que muito mais do que a economia, toda a nossa realidade é feita de informação. Constatação muito pertinente levantada pelo físico sérvio formado na Inglaterra, professor em Oxford, Vlatko Vedral.

O livro “Decoding reality” começa a partir da citação de outro livro, “O castelo dos destinos cruzados” de Ítalo Calvino, onde pessoas contam suas histórias pessoais sem falar, mas usando sequências de cartas de um baralho de tarô.

Da biologia à sociologia

Você, e qualquer outro ser vivo, é constituído de informação. A genética foi desenvolvida usando uma linguagem codificada, inclusive no que se refere à preservação e transmissão de informação.

A partir de apenas 20 aminoácidos se constrói toda matéria viva codificados nas bases ACTG, e que poderia codificar até 64 aminoácidos e, desde uma bactéria ao ser humano mais complexo, existem pouco mais 20 mil sequências genéticas identificadas.

Da física clássica vem a base para a nossa teoria da informação. Não é à toa que a fórmula de Shannon sobre a capacidade de um canal segue a par e passo a segunda lei da termodinâmica, basta compará-la à fórmula de entropia de Boltzmann.

E a lógica de Shannon pode ser usada na economia para otimizar lucros. Seja em um casino apostando, seja tomando decisões sobre probabilidades de riscos de decisões.

No aspecto sociológico não podemos esquecer que somos redes de indivíduos correlacionados. O grau de correlação e dimensão da rede determinam o tipo de sociedade em que estamos, e como prever uma série de circunstâncias dentro de cada uma delas.

Nos mínimos detalhes

Há um pouco mais de 100 anos, entramos no mundo da mecânica quântica.

Não vou entrar em detalhes, de um lado porque são muito complicados para quem não tem afinidade com física, de outro por reconhecer que meus conhecimentos são limitados para explicações mais profundas.

No entanto, o importante para entender aqui é que a física quântica diz respeito a como ela pode nos ajudar a entender o funcionamento da matéria e enriquecer a nossa capacidade de lidar com a informação.

A criptografia quântica é infinitamente mais segura que qualquer sistema anterior a ela. Os computadores quânticos, que já estão em operação, não só são muito mais velozes, como podem resolver problemas que os computadores tradicionais levariam décadas para calcular (especialmente no que tange aos processos de fatoração e de busca).

Em busca da teoria final

A realidade é explicada por duas grandes leis. De um lado temos a gravidade, de outro a mecânica quântica.

A primeira explica o universo do ponto de vista macroscópico e, à medida que os objetos vão diminuindo de tamanho, ela vai perdendo eficiência (ainda é impossível medir a força gravitacional entre dois átomos).

A segunda explica o universo do ponto de vista subatômico e, à medida que o objeto cresce, ela não consegue explicar nada.

A primeira é determinística. A segunda randômica.

E o sonho de todo físico é encontrar a conexão entre as duas. O sonho de todo filósofo também. Afinal, se a realidade fosse totalmente determinística ou totalmente randômica, não existiria a livre vontade humana e não seríamos responsáveis pelos nossos atos em nenhum dos casos.

Muito espaço de armazenamento e processamento

Existe uma fórmula do físico israelense Jackob Beckenstein que calcula a capacidade de informação em qualquer sistema (baseada nas leis de entropia e da mecânica quântica) onde, se tomarmos o nosso cérebro como um sistema, ele teria da capacidade de armazenar 10 elevado à 44 bits de informação.

Só para você ter uma ideia, o estoque de informação armazenada no mundo está estimado em cerca de 65 zetabytes (quase 70% disso em meios digitais). Um zetabyte corresponde, grosso modo, a 10 elevado a 21 bits. O que significa que cada cérebro humano tem 1, 54 elevado a 22 vezes toda a informação armazenada no mundo.

Mesmo considerando que a capacidade de armazenamento em qubits (a unidade dos computadores quânticos) é muito maior que os computadores tradicionais, a diferença ainda é brutal.

Por favor, não me refute com o mito do uso dos 10% do cérebro. É mentira.

Várias histórias, um só código

A preciosa analogia de Vedral com o livro de Calvino é a de que muitas histórias podem ser contadas usando o mesmo código.

Para Calvino, o baralho de tarô. Para Vedral, a teoria da informação.

Ainda falta muita coisa para desvendarmos os mistérios do baralho da vida e da realidade, mas não podemos negar a sua existência.