quarta-feira, 12 de setembro de 2012

Muita calma nessa hora...


No início desse mês, a Folha de São Paulo divulgou em seu site (http://ruf.folha.uol.com.br/) o Ranking Universitário Folha (RUF). Trata-se de uma tentativa de qualificar e classificar as universidades brasileiras, assim como ocorre em outros países. A metodologia utilizada, baseada em iniciativas internacionais, prevê a pontuação das instituições em quatro critérios: qualidade de pesquisa; qualidade de ensino; avaliação do mercado; e indicador de inovação.

É de se parabenizar a iniciativa da Folha. Colocar a “cara” à tapa em um tema tão espinhoso é para os fortes. Entretanto, é oportuno fazer algumas críticas ao RUF:

1º) É muita pretensão divulgar que as 10 mais bem classificadas universidades pelo RUF são as 10 melhores universidades do país. Ser a mais bem classificada universidade no RUF pode não significar ser a melhor universidade do país. Aliás, qual o critério legítimo para eleger a melhor universidade do país? São muitas as possibilidades para isso, não acham? Quanto mais tentamos dizer o que é uma boa instituição de ensino superior (IES), mais achamos possibilidades e mais temos que fazer recortes e emendas. Uma boa IES pode assumir diversas formas e essas formas podem variar em diversos contextos. Uma boa IES pode ser aquela que simplesmente dá acesso; aquela que consegue produzir bons resultados acadêmicos; aquela que emprega mais seus egressos; ou aquela que melhor satisfaz as políticas públicas. Dessa forma, quem deu o poder à Folha para dizer que o seu critério ranqueia as “melhores” universidades do país? O melhor seria ser menos pretensioso com as manchetes do RUF.

2º) É muita prepotência da metodologia do RUF ignorar os indicadores de qualidade e produtividade produzidos pelo Ministério da Educação sobre o ensino superior. Nesse sentido, é importante se lembrar do trabalho produzido pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (INEP), responsável pelo Sistema Nacional de Avaliação da Educação Superior (Sinaes). Há algum tempo, tal sistema avalia as instituições superiores em três critérios bastante estudados e criticados pela academia: avaliação das instituições, dos cursos e do desempenho dos estudantes. A partir de diversas fontes indubitavelmente mais fidedignas e válidas que as utilizadas pelo RUF, tais critérios produzem indicadores como o Conceito Preliminar do Curso (CPC) e o Índice Geral de Cursos (IGC), os quais servem para a tomada de decisão por parte das próprias instituições avaliadas, da sociedade e do governo. Todo esse arcabouço teórico, metodológico e histórico do Sinaes não serve ao RUF? O melhor seria ser menos prepotente na metodologia empregada pelo ranking da Folha.

3º) O fato de não utilizar indicadores já amplamente divulgados e institucionalizados, como os do Sineaes, é uma escolha. No meu ponto de vista, incorreta, mas é uma escolha. Entretanto, entre os critérios escolhidos pelo RUF (qualidade de pesquisa; qualidade de ensino; avaliação do mercado; e indicador de inovação), parecem-me apresentar, ao menos, dois erros graves. O primeiro é o cuidado ao estabelecer critérios mutuamente excludentes e isso aparentemente os utilizados no RUF não os são. As razões são muitas, mas, por exemplo, dá para imaginar que exista uma forte correlação entre avaliação do mercado e qualidade de ensino. Nesse sentido, bastaria uma instituição ser boa em um critério para ser boa nos outros critérios do ranking. O outro erro é o peso atribuído entre os critérios. Não me parece ser bem justificado o fato da qualidade da pesquisa ter 55% do peso, a qualidade de ensino e a avaliação do mercado 20% (cada) e o indicador de inovação apenas 5%. Quer dizer que produtores (e reprodutores) de artigos são a prioridade do RUF? É por ali que se deve andar a educação superior para a Folha? Produzindo artigo? A inovação merece parcos 5%? Acredito que o sonhado equilíbrio entre ensino, pesquisa e extensão não esteja bem refletido nos pesos atribuídos aos critérios do RUF.

4º) Uma crítica especial se deve ao método empregado no RUF, em três elementos básicos: amostra, instrumento de coleta de dados e escala de pontuação. A amostra variou de critério para critério sendo empregados indicadores qualitativos e quantitativos para a formação de uma escala de pontuação. Como uma escala de pontuação se alimenta de informações quantitativas (ex. publicação por doutor) e qualitativas (ex. percepção pessoal sobre a melhor instituição)? Como garantir uma amostra representativa com 1212 empresários para um número de 237 instituições de ensino superior espalhadas pelo país? Qual o erro? O que significa uma universidade que logrou nota zero em qualidade de ensino, como a Universidade Federal da Paraíba (e muitas outras)? Quer dizer que nessa universidade não há ensino? Quer dizer que o aluno nela não aprendeu nada? O interessante que essa citada universidade é nota 4 (de 1 a 5) no IGC do INEP (de 2010), que leva em consideração, entre outros aspectos, a contribuição da instituição no desenvolvimento cognitivo do aluno. Há muito que melhorar no método do RUF.

5º) Apesar do alarde provocado pela ampla divulgação em um dos maiores jornais do país, o RUF não é suficiente. De que adianta ranquear apenas 237 (aproximadamente 10%) instituições de ensino superior? O que fazer com as outras (90%) instituições? As que ficaram de fora não são merecedoras de comparação? Estão abaixo das ranqueadas ou acima? Os alunos matriculados nelas devem ficar preocupados ou aliviados?

Claro que essa é a primeira rodado do Ranking Universitário Folha. Claro que se deve louvar essa iniciativa, pois, ao fim e ao cabo, é mais um diagnóstico para melhorar a educação brasileira. E, claro que muitas dessas críticas já são previstas e antecipadas por Rogério Meneghini, coordenador do RUF. Mas, se você está pensando em tomar alguma decisão com base nesse ranking... É melhor ter muita calma nessa hora!

Postagens populares