Os programas desenvolvidos pela iniciativa usam como referência uma série de testes feitos com células humanas produzidas em laboratório. As reações do tecido orgânico são traduzidas em complexos modelos tridimensionais e matemáticos que serão consultados por pesquisadores à procura de sinais de reações tóxicas.
Para Elmar Heinzle, coordenador do projeto, o desafio é criar um modelo que mostre melhores resultados do que os próprios animais – a não ser que o computador se mostre mais útil que camundongos e cães, mudar o hábito científico pode ser difícil. “Historicamente, esses dados vêm de testes com animais, então os pesquisadores estão acostumados a isso”, admite.
Embora os bichos tenham uma fisionomia diferente da humana, eles fornecem resultados completos, produzidos por um organismo inteiro. Já os programas de simulação de células humanas ainda têm a limitação de realizar testes ao nível molecular. “Se imaginarmos que o corpo é um prédio, e os tijolos são as moléculas que formam o corpo, a gente só consegue trabalhar com alguns tijolos”, reconhece Hugo Verli, professor de bioinformática na Universidade Federal do Rio Grande do Sul (UFRGS). Os computadores são muito bons em descrever a arquitetura, mas ainda falham em prever como as diferentes peças se encaixam.
Além disso, o trabalho é imenso. Exemplo disso é um projeto realizado por pesquisadores da Universidade de Stanford, nos Estados Unidos. Eles precisaram recorrer à computação distribuída para estudar o comportamento de proteínas, pois um computador sozinho não daria conta da tarefa. O Folding@home usa o tempo ocioso de quase 300 mil computadores somente para simular a dobradura das moléculas. Até mesmo 30 mil consoles de PlayStation 3 foram recrutados. Como o programa leva meses para recriar segundos da movimentação dos peptídeos num modelo tridimensional, não há como prever quando o projeto vai conseguir descrever a ação de medicamentos ou o comportamento do câncer.
Vidas e lucro A bioinformática teve início há 50 anos e passou a ser adotada pela indústria farmacêutica como forma de aumentar a taxa de sucesso dos fármacos desenvolvidos em laboratório. O impacto do computador ocorre antes dos ensaios pré-clínicos com animais. As máquinas se encarregam de planejar os compostos em nível atômico e selecioná-los para testes in vitro. Mas o destino final da experimentação, lamentam os pesquisadores, ainda são os animais, pois os programas não são capazes de simular o processo biológico com perfeição. “Estamos, no mínimo, a décadas de montar um modelo com essa complexidade”, estima Verli.
Até lá, os computadores podem não substituir completamente os bichos, mas já começam a poupar muitos deles. Com o fim do método de tentativa e erro, a tendência é que cada vez menos cobaias sejam necessárias para encontrar um remédio ou eliminar uma toxina. A procura por compostos para o desenvolvimento de vacinas, por exemplo, teve o prazo reduzido de décadas para alguns meses graças à vacinologia reversa. O método computadorizado já é usado pela Fundação Oswaldo Cruz (Fiocruz) para a criação de imunizantes contra a esquistossomose, a leishmaniose e a Campylobacter, bactéria que causa aborto bovino.
O genoma do organismo é sequenciado, traduzido por um algoritmo e um programa identifica os trechos que têm potencial de induzir uma resposta imune. Em um conjunto de 8 mil genes, apenas 20 acabam chegando aos tubos de ensaio – e um número ainda menor nos testes com camundongos, cães e macacos. “O desenvolvimento experimental é enorme, em todos os sentidos. Consegue fazer experimentação mais assertiva”, avalia Jerônimo Conceição Ruiz, líder do grupo de biossistemas da Fiocruz.
Além de apressar a experimentação, o planejamento racional com base em modelos de computador representa uma economia de milhões para as indústrias cosmética e farmacêutica. Essa pode ser a bandeira que vai incentivar os laboratórios a investir nas cobaias virtuais.
TOXICIDADE Não foi a pressão pública e sim os altos custos com testes de laboratório que levaram um grupo da Universidade do Kansas, nos Estados Unidos, a desenvolver uma técnica computacional capaz de prever a toxicidade de substâncias. “Podemos usar a computação para avaliar a correlação da facilmente obtida informação in vitro com a custosa informação de toxicidade in vivo, que geralmente usa modelos animais”, explica Jun Huan, diretor do Laboratório de Bioinformática e Ciências da Vida Computacionais da universidade.
O sistema usa como base uma lista de 300 compostos químicos encontrados em pesticidas e que já tiveram o potencial tóxico medido em experimentos. Os pesquisadores criaram um modelo de aprendizado artificial que identifica uma função matemática para descrever o padrão dos dados e prevê o efeito das substâncias com base nas semelhanças que elas têm com fórmulas já conhecidas. A taxa de acerto do programa é de 70%.
Os pesquisadores não se arriscam em dizer se o método pode substituir os testes tradicionais com cobaias, mas afirmam que a estratégia tem grande potencial para otimizar o trabalho dos cientistas e economizar muito tempo e dinheiro nos laboratórios. “Usando computação, seremos capazes de integrar dados de várias fontes, de identificar importantes características in vitro e acelerar os testes de toxicidade”, acredita Huan.