Passaram-se cem anos até que, agora em 2016, cientistas comprovassem que a teoria das ondas gravitacionais de Albert Einstein estava certa. Foi destaque em quase todos os jornais e, apesar da dificuldade de se compreender exatamente os termos da descoberta, ninguém teve dúvida do avanço que isso significa para a história da humanidade. Pelo menos por enquanto, nenhum novo produto vai ser criado a partir dessa descoberta; nenhum processo de trabalho ou produção está prestes a se modificar em função desse resultado; nenhuma empresa parecia ansiar pelas ondas da gravidade como forma de melhorar sua atuação no mercado mundial. Moral da história: de certo modo, pode-se dizer que Einstein escapou dos efeitos da era da inovação.
São, literalmente, novos tempos. Nascida no período pós-Segunda Guerra Mundial, a ideia de inovação tem modificado a compreensão sobre os objetivos e a organização da atividade científica. Mais do que isso: tem mudado não apenas o nome, mas também o foco de órgãos e políticas de fomento à ciência no Brasil e no mundo. Por trás dessa concepção de ciência como inovação está a pergunta sobre a ‘utilidade’ (mais ou menos imediata) dos estudos científicos. “A inovação é uma forma de ser e estar no mundo própria do capitalismo contemporâneo. Tudo tem que se renovar o tempo inteiro”, situa Marcela Pronko, pesquisadora e vice-diretora de Pesquisa e Desenvolvimento Tecnológico da Escola Politécnica de Saúde Joaquim Venâncio (EPSJV/Fiocruz) e co-autora do livro ‘O mercado do conhecimento e o conhecimento para o mercado’. O fato é que, quando colocada logo depois de ciência e tecnologia – no título de editais, na definição de políticas ou no nome de um ministério –, a palavra inovação é majoritariamente compreendida como consequência natural destas duas. Pesquisadores que se dedicam ao assunto, no entanto, não são unânimes nessa interpretação.
Origens
Segundo o professor José Cassiolato, do Instituto de Economia da Universidade Federal do Rio de Janeiro (UFRJ), o termo ‘inovação’ começou a se popularizar no começo do século 20, principalmente pelos trabalhos do economista austríaco Joseph Schumpeter. Mas tratava-se ainda de uma abordagem “genérica”, que enfatizava a produção de ‘novidades’ como motor do desenvolvimento econômico. De acordo com o pesquisador, foi a partir dos anos 1960, no calor da Guerra Fria, que “a academia passou a fazer um esforço de compreender melhor essa caixa-preta chamada inovação”. Isso porque, além de acender um sinal de alerta para a humanidade, a bomba de Hiroshima teria ‘ensinado’ aos governos que “a tecnologia poderia ganhar guerras”, que a “produção de novidades poderia levar a vitórias”.
Segundo a professora-pesquisadora Marcia Teixeira, da EPSJV/Fiocruz, foi nesse contexto que surgiu, pela primeira vez, uma divisão entre pesquisa básica e aplicada. “Eu acho que isso já era uma sementinha dessa ideia de que uma pesquisa só tem importância se tiver um valor imediato e muito alto de consumo para a sociedade”, opina. Logo depois, entre as décadas de 1970 e 1980, de acordo com ela, começou-se a falar em ‘Pesquisa & Desenvolvimento’ e, principalmente a partir dos anos 1990, o ciclo se fechou com o discurso da inovação. Ressaltando que esse processo não foi um “continuum”, como pode parecer, Marcia explica que, já na origem, essa separação entre diferentes entendimentos sobre a atividade científica atendia a interesses que iam além da pura ação militar: num contexto de aumento do custo da força de trabalho e enfrentamento de greves mundo afora, o grande capital, principalmente norte-americano, buscava uma forma de fortalecer suas empresas para enfrentarem a concorrência. Com isso, a ciência ia se aproximando cada vez mais das necessidades do mundo produtivo. “A inovação tecnológica é um componente central na capacidade competitiva das empresas”, diz. Marcela Pronko concorda: “É claro que há exceções, que no Brasil há nichos onde as instituições públicas e seus pesquisadores realizam contribuições importantes a campos do conhecimento. Mas a regra é a pesquisa dedicada à possibilidade de modificação pontual que traz lucros imediatos ao mercado e que, devido à própria dinâmica desse mercado, logo perde sua capacidade de revolucionar e precisa ser rapidamente substituída”.
Relação com o mundo produtivo
Para o pesquisador da UFRJ, que estuda o tema desde os anos 1980 e é “muito favorável” à concepção de inovação, a relação com os interesses empresariais não tem nada a ver com o conceito em si. Trata-se, segundo Cassiolato, de uma apropriação feita pelo discurso neoliberal nos anos 1990, principalmente a partir da ação de agências e organismos internacionais, como o Banco Mundial e, em especial, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE), que se tornou carro-chefe de uma certa concepção de inovação que, lamentavelmente, o professor identifica como a que vem sendo adotada no Brasil. “O ser humano se move pela introdução de novidades, que significa melhoria teórica potencial. Eu defendo a inovação como uma estratégia de ação política, mas é claro que você pode fazer para o bem e para o mal”, justifica. Ele reconhece, tanto aqui como internacionalmente, uma instrumentalização do discurso da inovação com o objetivo de colocar a atividade científica a serviço do mercado. “Isso é um equívoco absoluto e não tem nada a ver com o conceito de inovação”, defende, argumentando que a universidade deve interagir com toda a sociedade, o que inclui o setor produtivo, mas sem subordinação.
O primeiro marco importante do momento que ele classifica como “neoliberal” foi um relatório do Banco Mundial lançado em 1998 com o título ‘Conhecimento para o desenvolvimento’. Dois anos depois, a União Europeia, com Portugal à frente, lançou a ‘Estratégia de Lisboa’, que também dava destaque a uma economia do conhecimento e à importância da inovação. “O Banco Mundial, a OCDE e a União Europeia dão um aval político à ideia de que seria importante transformar políticas de ciência e tecnologia em políticas de inovação. Depois que isso acontece, o mundo inteiro vai atrás”, explica.
No Brasil não foi diferente. Marcia Teixeira conta que foi no governo Fernando Henrique Cardoso que começaram os primeiros esforços de construção de conferências nacionais e órgãos – como o Centro de Gestão de Estudos Estratégicos (CGEE) – para propor e fomentar políticas relacionadas a essa concepção. Tudo isso casado com um esforço de internacionalização dos centros de pesquisa, um processo que, segundo ela, se intensificou no governo Lula e continua se desenvolvendo até hoje – o Ministério de Ciência e Tecnologia ganhou o termo ‘inovação’ no nome em 2011, sob a gestão de Aloizio Mercadante, com o objetivo de se adequar ao conceito que, segundo o site da pasta, já vinha permeando as ações da área desde pelo menos 2004, quando foi criada a Lei da Inovação (nº 10.973). Em termos jurídicos, essa concepção parece ter atingido seu auge no Brasil com a aprovação do Novo Marco Legal para Ciência, Tecnologia e Inovação, em janeiro deste ano.
Interesses na (e da) ciência
O exemplo da descoberta de Einstein ilustra uma concepção de ciên-cia como um processo que, nas palavras de Marcela Pronko, “se propõe a ampliar os limites do conhecimento humano”. Por essa definição, a pesquisa, sobretudo aquela desenvolvida por instituições públicas, não pode ter como condição a produção de um resultado rápido, que se justifique por uma aplicação prática imediata. Não se trata de negar a utilidade do conhecimento científico produzido, mas de não reconhecer esse como um critério de validação – e de financiamento – da atividade científica. Uma matéria recentemente publicada na revista Superinteressante ajuda a entender a diferença. “Elas [as ondas gravitacionais] servem para alguma coisa?”, pergunta o texto, respondendo na sequência: “Por enquanto, não. Nada de realmente prático. Mas quando descobriram a força eletromagnética, no século 19, ninguém imaginava o que fazer como ela também. E hoje dependemos das ondas eletromagnéticas para tudo”.
José Cassiolato classifica o exemplo de Einstein como próprio da história de “gênios”, e lembra que mesmo esse trabalho “especulativo” só foi possível em função de um objetivo bastante prático: o esforço do governo norte-americano de usar físicos para construir a bomba atômica. Ele afirma um certo “receio” da ideia de uma “busca do conhecimento pelo conhecimento”. “Sempre tem um interesse por trás, que é basicamente o interesse de quem paga a conta”, diz, explicando que, no caso de um pesquisador vinculado a uma instituição pública, como é o seu caso, quem paga a conta é a sociedade. “Eu não posso dizer que vou pesquisar o que vem à minha cabeça. Portanto, a ideia de pesquisa básica eu acho complicada”, opina e, garantindo que não é “contra a pesquisa fundamental”, pondera: “Você tem espaço para os teóricos se preocuparem. Isso deve continuar acontecendo. Agora, os resultados disso do ponto de vista dos benefícios para a sociedade podem acontecer de uma forma direta ou demorar, eu não sei”.
Na avaliação de Marcia Teixeira, o ponto central desse debate está em reconhecer os “limites falaciosos” da separação entre pesquisa fundamental e aplicada ou, de forma mais atual, entre ciência e inovação. Segundo ela, a atividade de pesquisa gera inovações todos os dias, como parte da própria dinâmica da ciência. “Muitos testes de diagnóstico rápido foram desenvolvidos numa determinada etapa da pesquisa de pessoas cujo grande intuito da vida era produzir uma vacina”, exemplifica. Mas então o que diferenciaria a inovação da boa e velha ciência? “A questão é que essa inovação com cara de produto ou de processo, que tenha valor de mercado, que seja um elemento para a competitividade de empresas, de uma coalizão de guerra ou mesmo de instituições estatais, é mais rara. Para que eu tenha uma inovação dessa amplitude, preciso de muita gente estudando a mesma coisa em diversos lugares. Porque há necessidade de uma escala para que, de repente, se tenha o pulo do gato”, explica. E completa: “Isso é uma lógica da indústria”.
A pesquisadora não tem dúvida de que os resultados desses processos de larga escala não são todos apenas apropriados pelas grandes empresas e não nega a importância de muitos desses estudos. A pesquisa de medicamentos para Aids, que mobiliza centenas de laboratórios no mundo, é um exemplo bem atual do campo da saúde. Mas um dos problemas, diz Marcia, é que essa estrutura necessariamente agigantada acaba “tirando o cobertor de outros lugares” – no caso da saúde, segundo ela, a pesquisa de outros vírus com importância para a saúde de determinadas populações recebe menos recursos. Alertando sobre a importância de os cientistas cada vez mais se questionarem sobre de onde vem a sua agenda de pesquisa, ela aponta como uma possível consequência negativa desse processo a “diminuição dos objetos de pesquisa”, principalmente nas ciências humanas e sociais. E a saúde pode ser um caso exemplar. Segundo Marcia, nos últimos anos, tem sido comum instituições científicas defenderem que se concentrem os esforços em pesquisa sobre doenças crônico-degenerativas (como diabetes, câncer e hipertensão), o que gera uma diminuição do investimento nas doenças infecto-contagiosas. Até que a realidade surpreende e, de repente, o mundo se vê diante de uma epidemia de zika vírus, causada por um mosquito, cuja reprodução tem relações diretas com as condições de saneamento. Pode faltar cobertor.