Páginas

sexta-feira, 30 de maio de 2014

Wikipedia, a conquista civilizatória do século?

Wikipedia, a conquista civilizatória do século?



Como surgiu, e é gerida, obra coletiva consultada por 500 milhões ao dia, mantida sem lucro e alimentada pelo desejo humano de compartilhar conhecimentos

por Thiago Domenici, no Retrato do Brasil — publicado 29/05/2014
Wikipedia
Jimmy Wales, co-fundador da Wikipedia. Nascida por acaso, ela alimenta-se da contribuição voluntária de milhões de apoiadores e tem sistema sofisticado para dirimir divergências entre 80 mil editores
Mil volumes com cerca 1,2 mil páginas cada, capa dura e texto em preto sobre papel branco. Seria assim a versão impressa da Wikipédia, a maior enciclopédia digital do mundo, se uma campanha de crowdfunding (espécie de “vaquinha virtual”) arrecadasse 50 mil dólares (120 mil reais, aproximadamente).
O montante era o necessário para imprimir os 4,3 milhões de artigos da versão do site em inglês, mas a campanha acabou malsucedida no final do mês passado e obteve apenas 25% daquele total. A iniciativa partiu da PediaPress, parceira oficial da Wikimedia Foundation Inc., instituição sem fins lucrativos com sede em São Francisco (EUA), responsável pela Wikipédia e outros projetos. No vídeo da campanha, um dos argumentos sugere que os mil volumes estariam desatualizados tão logo fossem publicados. Então, para que o esforço? Justamente porque transformar a Wikipédia num produto físico seria a melhor maneira de compreender suas dimensões.
Ao longo dos séculos, seja nos 37 volumes da História Natural, de Plínio, o Velho, filósofo e naturalista que viveu no primeiro século da era cristã na biblioteca de Alexandria, fundada no início do século III a.C, até a Encyclopédie, surgida do projeto iluminista conduzido na França do século XIII por Denis Diderot e Jean d’Alembert, o homem sempre ambicionou reunir a totalidade do conhecimento humano. E quem melhor encarnou essa pretensão de descrever o estado atual do conhecimento foram as enciclopédias, termo que surgiu da expressão grega enkylios paideia (educação circular).
O fracasso da “Wikipédia impressa” parece estar ligado a mudanças de hábitos geradas a partir da massificação do uso da internet e do computador. Além disso, o alto custo de produção das enciclopédias impressas e as baixas vendas demonstraram que o antigo modelo de negócio já não era viável.
A história da Wikipédia se desenha a partir de 1995, quando o americano Ward Cunningham criou um software conhecido como WikiWikiWeb – a palavra wiki, no idioma havaiano, significa “super-rápido”. Cunningham queria um sistema que facilitasse a condução e a documentação de grandes projetos de informática. E os wikis permitiam uma edição coletiva dos textos a qualquer dia e hora, sem estabelecer limites entre autor e leitor. Seis anos mais tarde, surgiria a Wikipédia, época em que o mercado contava com a tradicional Encyclopædia Britannica e a enciclopédia Microsoft Encarta.
A Encarta, lançada em 1993 pela empresa de Bill Gates, fora inicialmente vendida apenas em CD-ROM e teve uma versão on-line a partir de 2005. Em 2009, a Encarta fechou as portas sob a alegação de que “as pessoas hoje em dia buscam e consomem informação em consideráveis e diferentes maneiras do que há alguns anos”. Três anos depois da Encarta, foi a vez da Britannica, herdeira da Encyclopédiefrancesa, com 244 anos de história, anunciar o fim da sua edição em papel. Segundo seu presidente, Jorge Cauz, o fim soou como um “ritual de iniciação à nova era”. Os pesados volumes da enciclopédia Britannica, com suas letras douradas na lombada, foram um objeto quase básico nas famílias britânicas e americanas desde meados do século XX, quando centenas de vendedores ambulantes as ofereciam de porta em porta. O auge de vendas ocorreu nas décadas de 1970 e 1980, quando, por exemplo, antes do boom da internet, as vendas atingiram 120 mil unidades em 1989 só nos EUA.
A primeira edição da Britannica (1784) foi produzida na Escócia, em Edimburgo, e tinha 2,7 mil páginas. Era dividida em três volumes e contou com artigos de Benjamin Franklin e John Locke. A edição de 1889, considerada uma das melhores de todos os tempos, teve participação de Charles Darwin e Karl Marx. Agora, disponível somente na internet, a Britannica mantém atualização constante dos verbetes e, além de oferecer parte do conteúdo gratuitamente, possibilita a assinatura online para os usuários acessarem o conteúdo completo em diferentes plataformas digitais. A Britannica era impressa a cada dois anos e sua última edição no formato antigo circulou com 32 volumes e custava 1,4 mil dólares (aproximadamente 3,2 mil reais). Nela, havia atualizações sobre o projeto do Genoma Humano e a questão do aquecimento global. As 4 mil unidades restantes no estoque esgotaram-se em menos de três semanas, resultado da comoção de muitos com o anúncio do seu fim em papel. No Twitter, em tom de reconciliação amorosa, uma pessoa escreveu: “Sinto muito não ter sido fiel a você, Encyclopædia Britannica. A Wikipédia estava ali, à mão, mas não significou nada. Por favor, volte!”.
Em artigo publicado no ano passado, Cauz fez um balanço de todo o processo. Para ele, o fim da edição em papel começou muito antes da Wikipédia. “O modelo de vendas começou a ruir em 1991, quando o público tinha menos tempo e paciência para atender um vendedor na porta de casa e quando computadores começaram a vir com leitor de CD-ROM (…) Foi uma jogada brilhante da Microsoft [dona da Encarta] e algo muito prejudicial para a Britannica.” O sucesso da Wikipédia, diz Cauz, reforçou a decisão daBritannica de pôr fim ao papel – responsável por 1% do faturamento da empresa. “Assim como muitas inovações de ruptura, a Wikipédia tinha qualidade inferior: se fosse um vídeo, seria granulado e fora de foco. Mas o público não estava nem aí, pois a Wikipédia tem um número imenso de verbetes, é fácil de usar e é grátis. Não poderíamos competir em quantidade ou preço. Achávamos que o consumidor preferia nosso material de referência? Sim. Achávamos que estava disposto a pagar por isso? Não necessariamente.” Segundo Cauz, a Britannica mantém hoje 500 mil assinantes on-line.
No Brasil, a versão em português da Britannica foi publicada pela primeira vez em 1963, com o nome de Enciclopédia Barsa. No corpo editorial estavam Jorge Amado, Antônio Calado e Oscar Niemeyer, entre outros intelectuais brasileiros. Todos escreveram textos para aquela primeira edição, cuja leva inicial, de 45 mil exemplares, esgotou-se em oito meses. Em 2005, a Barsa foi comprada pelo grupo editorial espanhol Barsa Planeta. E, curiosamente, ao contrário de sua progenitora, a Barsa mantém ativa sua edição em papel, além de oferecer a versão online do produto. “Estrategicamente, o modelo de negócios da empresa para comercialização dos nossos programas educativos e enciclopédias evoluiu em todos os aspectos”, informou Mauricio Gregorio, presidente corporativo do Grupo Planeta Brasil, a Retrato do Brasil.
Quem adquire a Barsa precisa reservar um bom espaço na estante para acomodar suas cerca de 10 mil páginas organizadas em 18 volumes. Acompanhada de um CD-ROM, ela custa 3 mil reais em média (preço que varia conforme o modelo de capa escolhido). Em 2012,  70 mil unidades foram vendidas. Indagado sobre a “concorrência” da Wikipédia, Gregorio diz que o maior atrativo da Barsa é a “credibilidade do conteúdo e a confiabilidade dos mais de 160 mil verbetes oferecidos”. “Não competimos com portais genéricos de informação.”
Genérica ou não, a Wikipédia surgiu de uma tentativa de fazer dar certo a Nupedia, o “projeto-anjo” dos americanos Jimmy Wales, especialista em finanças, e Larry Sanger, então estudante de filosofia. A dupla desejava criar uma enciclopédia gratuita e online na qual os artigos seriam escritos por especialistas e com rígido processo de revisão. Por conta da lentidão na produção, a dupla de criadores introduziu o wiki de Cunningham num site paralelo, que serviria de suporte para acelerar a dinâmica da Nupedia. Para surpresa geral, a Wikipédia (nome cunhado por Sanger) superou a Nupedia em tamanho e acessos em pouco tempo, criando desde cedo uma pequena comunidade de editores constantes – hoje há mais de 80 mil deles ativos no mundo. Em comparação, em três anos a Nupedia conseguiu publicar somente 24 artigos, enquanto a Wikipédia publicou mais de 20 mil.
Atrás de Facebook, Google, YouTube e Yahoo!, a enciclopédia livre é o quinto site mais acessado do mundo, com impressionantes 500 milhões de acessos diários. Suas características modificaram a forma de se compartilhar conhecimento gratuito na web, já que cada tópico de diferentes temas é editado pelos próprios internautas – cada um agregando mais informações a respeito de um mesmo assunto. Evidentemente, o site mantém um “controle de qualidade”, classificando, por exemplo, um artigo como pendente de fontes ou alertando quando as informações são parciais demais. Publicada em 288 línguas diferentes, a Wikipédia possui hoje mais de 30 milhões de artigos.
No caso lusófono – que inclui o Brasil – são mais de 800 mil artigos. “A Wikipédia é fruto de um esforço enorme de um grande número de pessoas”, diz Carlos d’Andréa, professor do Departamento de Comunicação Social da Universidade Federal de Minas Gerais (UFMG), que defendeu há três anos tese de doutorado sobre o site. “É um projeto que, em tese, tinha tudo para dar errado. Ter alcançado tamanha amplitude e visibilidade não é pouca coisa. Tem problemas? Sim, muitos. Virtudes? Várias também. É uma fonte de informação a ser usada com cuidado – como qualquer outra fonte, em sua peculiaridade, também deve ser vista com alguma reserva.”
Henry Jenkins, um dos principais pensadores do impacto das novas tecnologias no mundo, autor do livro Cultura da convergência(Editora Aleph, 2008), diz a RB que a Wikipédia tem muitas vantagens em relação às enciclopédias tradicionais por conseguir ser mais inclusiva. “Ela pode ser muito mais atual ao dar respostas a eventos que estão acontecendo agora, mudando as informações disponíveis”, explica o professor de comunicação. “Nós podemos ver de onde veio a informação e revisar os processos de forma que a comunidade decida a qualidade daquela informação. O sistema permite que perspectivas diferentes possam coexistir em vez de serem resolvidas por um ‘especialista’. Tudo isso proporciona uma relação diferente entre o público e a informação compartilhada por uma sociedade.”
Mesmo considerando a Wikipédia um dos “maiores feitos da humanidade na era digital”, Jenkins constata que ela não é homogênea. “A abrangência dos tópicos não é tão diversificada quanto muitos de nós gostaríamos e a exigência de a informação ter sido publicada previamente, nesse caso, faz com que a Wikipédia acabe reproduzindo as lacunas da grande mídia. Há uma parcialidade sistêmica nos que participam desse processo, cujas verdades acabam reproduzidas. O leitor precisa se manter atento ao ler uma entrada, assim como deveria estar atento ao ler qualquer coisa.”
Segundo a tese de D’Andréa, as críticas mais frequentes à Wikipédia relacionam-se à credibilidade da informação em um ambiente em que qualquer pessoa pode alterá-la. Para ele, se encararmos a Wikipédia como um fluxo e não um produto final, “é fundamental reconhecer que ela nunca está pronta e, portanto, não é possível ler seus artigos como uma verdade”. Em resposta aoscríticos mais vorazes, sua tese cita estudo publicado pela revista científica Nature há oito anos que avaliou a precisão de 42 verbetes de ciência da Wikipédia em inglês com os verbetes correspondentes da Britannica. Houve quatro erros graves de cada lado e a Britannica teve pouco menos erros factuais que a Wikipédia (123 a 162).
Para preservar a isenção dos artigos, a Wikipédia não tem anunciantes e sua receita vem, basicamente, de doações coletivas. É o único dos dez sites mais acessados do mundo que mantém uma proposta sem fins lucrativos. Hoje há mais de 2 milhões de doadores ao redor do mundo. Em uma campanha de 2011, por exemplo, mais de 1 milhão de voluntários doaram um total de 20 milhões de dólares. A sede, em São Francisco, tem pouco mais de 130 funcionários para manter todos os “projetos Wiki” em andamento. “O aspecto mais importante do modelo sem fins lucrativos é possibilitar que o projeto se mantenha focado no que nossa comunidade de editores voluntários mais valoriza: a capacidade de se manter neutro e distante de quaisquer fatores que poderiam influenciar a objetividade e a neutralidade da Wikipédia e de seus projetos irmãos”, explica o canadense Jay Walsh, consultor de comunicação e relações públicas do Wikimedia Foundation Inc.
Mas como é possível que uma enciclopédia escrita e editada por voluntários funcione? Segundo D’Andréa, o modelo de funcionamento da Wikipédia significa uma ruptura com o de produção editorial baseado em rotinas industriais estabelecidas a partir dos suportes impressos. Em geral, as enciclopédias são produzidas por uma equipe de “editores” junto com os “colaboradores especialistas”, e a expertise no assunto sempre foi um pré-requisito. No funcionamento da Wikipédia, o modelo é outro, baseado no “publique, depois filtre”. Nesse sentindo, a Wikipédia é um projeto fora da curva por evidenciar o quanto as pessoas se acostumaram ao primeiro modelo, aquele em que a produção de textos é centrada na figura de um autor e voltada para suportes que dificultam modificações após sua publicação.
Os artigos devem conter informações verificáveis, ou seja, não se pode opinar e deve constar somente o que já foi publicado em fontes consideradas confiáveis pela comunidade. É comum, por exemplo, ver em muitos artigos a própria Britannica ser indicada como fonte. Sua estrutura básica é a seguinte: além dos leitores – o sujeito que visita o site para se informar – existem os editores. Nesse “cargo”, para alterar qualquer informação, é preciso clicar na aba “Editar” presente em qualquer artigo. A alteração no texto é publicada e essa passa a ser a versão válida até que seja novamente mexida. Acima dos editores ficam os “administradores”, eleitos ou indicados por outros editores por causa da frequência e da qualidade de suas colaborações. Acima deles estão os “burocratas”, os chefes dos administradores (são quatro no Brasil). Acima de todos fica o steward – o juiz da Wikipédia –, corpo composto por 38 usuários encarregados de dirimir conflitos, por exemplo, entre burocratas e administradores.
Para intervir no site, um editor pode ou não se cadastrar. Se o fizer, torna-se um “wikipedista” e tem suas contribuições ligadas a seu perfil. Em 2012, por exemplo, o americano Justin Knapp30 anos, que escreve na enciclopédia sob o apelido de “koavf”, bateu um recorde ao ser reconhecido como o primeiro usuário a realizar 1 milhão de edições.Voluntário desde março de 2005, Knapp é formado em filosofia e ciência política pela Universidade de Indiana, mas procura conciliar o diploma com outras formas de trabalho, como entregador de pizzas, por exemplo. A contribuição para a enciclopédia virtual começou com edições anônimas, que hoje chegam a cerca de 385 por dia. Política, religião, filosofia e cultura popular são alguns dos temas mais abordados em seus artigos.
Editores não cadastrados são identificados pelo Internet Protocol (IP) atribuído ao computador naquela conexão. Sem exceção, todas as edições realizadas nos artigos são registradas na página “Histórico” – na qual é possível comparar versões, identificar o autor da edição, data, horário e comentários. A busca pelo consenso durante a edição contínua dos artigos da Wikipédia ocasiona, em inúmeros casos, disputas e conflitos, que são as chamadas “guerras de edições”.
A Wikipédia possibilita resgatar qualquer versão do artigo, principalmente em casos de edições feitas de má-fé, chamadas de “vandalismo”. Segundo D’Andrea, dois tipos de vandalismo são reconhecidos pelo projeto: o “furtivo” e o “explícito”. No primeiro caso, o usuário acrescenta informações incorretas ou adiciona imagens consideradas indecentes ou impróprias. Já o vandalismo explícito ocorre quando um editor “diverte-se em repetitivamente apagar conteúdo de páginas, em trocar informações corretas por erradas, em inserir termos de baixo calão ou ofensivos ao projeto ou, ainda, aos contribuintes do projeto”, mesmo após ter sido avisado por outro editor.
Recentemente, quando da morte do ator José Wilker, uma amiga do repórter postou atônita em seu Facebook um vandalismo do tipo “explícito”: “Nossa, fui ver que história é essa do José Wilker ter morrido e entrei no Wikipédia e lá estava ‘José Wilker faleceu no dia 5 de abril de 2014, aos 66 anos, vítima de infarto e deixou todo o seu dinheiro para a caridade e para pagar a conta de luz do Vasco’… hein? Entrei de novo e a história do Vasco já não estava mais…”
A rápida remoção do conteúdo impróprio pode ter sido realizada por ação humana (editor ou administrador) ou pelos robôs algorítimos da Wikipédia, como, por exemplo, o Salebot, software criado para fazer intervenções automáticas quando encontrar expressões suspeitas. O Salebot já fez mais de 180 mil interferências em verbetes da Wikipédia lusófona.
Segundo artigo publicado pela revista mensal Piauí sobre o assunto, o wikipedista tem ainda a possibilidade de vigiar um artigo de seu interesse. Nesse caso, ele é notificado sempre que o verbete selecionado passar por alguma alteração. “O artigo de Lula é vigiado por 170 usuários. O de Dilma Rousseff, por 112. O de José Serra, por 94. E o de Fernando Haddad, por menos de 30”, diz o texto. Em outro caso, quando da morte, em março de 2009, do maestro francês Maurice Jarre, um estudante irlandês decidiu fazer o que ele mais tarde chamou de um “experimento social”. Na biografia do músico, atribuiu-lhe uma frase fantasiosa: “Quando eu morrer, vai haver uma valsa final tocando na minha cabeça que apenas eu poderei ouvir”. A frase foi lembrada no obituário de Jarre publicado por jornais respeitáveis, como The Guardian e The Independent.
Jenkins diz que a força do projeto está justamente nesse processo mais livre e sem fim. “Talvez o que eu mais admire seja o esforço de articular um conjunto compartilhado de normas éticas sobre o significado de participar do projeto, normas que são debatidas, mas que determinam em grande medida como a informação é coletada, avaliada e postada no site.” A Encyclopédiefrancesa levou mais de duas décadas para ficar pronta. Aos 13 anos, produzida a todo instante por pessoas de graus diversos de conhecimento, a Wikipédia pode ser vista como uma enciclopédia viva – e, portanto, imperfeita e encantadora como todo ser dessa natureza. A afirmação de Wales, um de seus fundadores, de que é “impossível imaginar a internet sem colaboração”, reflete esse espírito wikipedista, que refuta a ideia de que a fonte do conhecimento tem de ser controlada.
AFOGADOS EM BITS
Em 1986, se toda a informação acumulada fosse colocada em CDs e distribuída aos seres humanos, cada um receberia apenas um. Vinte e um anos depois, seriam necessários 61
Martin Hilbert, professor doutor em comunicação e economia da Universidade do Sul da Califórnia, pesquisador do papel da informação, conversou com RB sobre o estudo que publicou na revista científica Science em 2011, no qual contabilizou com outra colega a quantidade de dados armazenados, transmitidos e processados por todos os dispositivos – analógicos e digitais – usados entre 1986 e 2007. O estudo revela que, em 2007, a humanidade foi capaz de armazenar 295 trilhões de megabytescomprimidos, comunicar quase dois quadrilhões de megabytese carregar 6,4 x 1018instruções por segundo em computadores. Um megabyteé o equivalente a 8 milhões de bits, a menor unidade para medir informação. Hoje, diz o estudo, somente 0,007% da informação do planeta está em papel.
A pesquisa também mostra a diferença de capacidade dos dispositivos tecnológicos antes e depois da revolução digital. Em 1986, quando apenas 0,8% dos suportes usados era digital, o armazenamento possível de informações era de apenas 2,6 trilhões de megabytes. Se essa informação fosse gravada em CD-ROMs (com capacidade de 700 megabytes cada um) e estes fossem distribuídos para a população de todo o planeta, cada habitante não precisaria nem sequer de um CD inteiro. Já para gravar a quantidade de bytes que conseguimos armazenar em 2007, seriam necessários 404 bilhões de CD-ROMs, o que daria 61 por habitante. Empilhados, eles ultrapassariam a distância entre a Terra e a Lua.
“A quantidade de informação tem crescido exponencialmente”, diz Hilbert. “Na verdade, ela sempre cresceu mais rápido do que nossas habilidades cognitivas. A era digital nos trouxe muitos alertas no sentido de que temos de ser mais humildes, diante de nossa limitada cognição do real. E a Wikipédia é um bom exemplo do que os sociólogos chamam de ‘construção social da realidade’.”

Mudança climática pode agravar crise hídrica nos centros urbanos

Mudança climática pode agravar crise hídrica nos centros urbanos



29/05/2014 - Por Karina Toledo
Agência FAPESP – Eventos climáticos extremos, como estiagens prolongadas, fortes tempestades e ondas de calor ou frio intenso, devem se tornar mais frequentes à medida que a temperatura do planeta se eleva – o que poderá impactar a disponibilidade dos recursos hídricos nos grandes centros urbanos brasileiros.
A avaliação foi feita pelo pesquisador Humberto Ribeiro da Rocha, do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG/USP), durante palestra apresentada no terceiro encontro do Ciclo de Conferências 2014 do programa BIOTA-FAPESP Educação, realizado no dia 24 de abril, em São Paulo.
De acordo com Rocha, a oferta de água no Brasil é – na média – muito maior do que a demanda. Com uma vazão de 5.660 quilômetros cúbicos de água por ano (km³/a), os rios brasileiros concentram cerca de 12% da disponibilidade hídrica mundial. A população consome em torno de 74 km³/a – menos de 2% da quantidade ofertada. Mas, como os recursos hídricos estão desigualmente distribuídos, há regiões com problemas de desabastecimento.
“Cerca de 80% dos recursos hídricos estão concentrados na Bacia Amazônica, enquanto há regiões com muito pouco, como o sertão nordestino, onde só é possível sobreviver graças aos grandes açudes”, afirmou.
Enquanto no Nordeste e no norte de Minas Gerais a falta de chuva é a principal causa da escassez hídrica, acrescentou o pesquisador, nos grandes centros urbanos como São Paulo, Rio de Janeiro, Belo Horizonte, Porto Alegre e Goiânia o problema é o adensamento populacional.
“Há uma grande dificuldade de consolidar sistemas de abastecimento que acompanhem o crescimento populacional e a demanda dos setores industrial e agrícola. Todos trabalham no limite e, quando há um evento climático extremo como a estiagem que afetou São Paulo no último verão, o abastecimento entra em crise”, avaliou.
Embora em escala global seja estimado um aumento de 10% no volume de chuvas com o aquecimento global, resultante principalmente da maior evaporação do oceano, determinadas regiões poderão sofrer com estiagem.
“A redistribuição de calor no oceano pode formar piscinas quentes e frias – o que distorce o regime de chuvas no continente. Pode passar a chover mais em certas regiões e menos em outras”, afirmou Rocha.
De acordo com o pesquisador, o veranico (altas temperaturas e escassez de chuvas) que afetou São Paulo no início de 2014 foi causado pela formação de uma piscina de água quente na região tropical do Atlântico. “Por algum motivo, as frentes frias que costumam esfriar a água do oceano não chegaram. A piscina foi se aquecendo cada vez mais e bloqueando a entrada de novas frentes frias. A temperatura do oceano é um fator de grande impacto no regime de chuvas do continente”, disse.


BIOTA Educação

O ciclo de conferências organizado pelo Programa de Pesquisas em Caracterização, Conservação, Restauração e Uso Sustentável da Biodiversidade do Estado de São Paulo em 2014 tem como foco os serviços ecossistêmicos. Mais um encontro está programado para este semestre, com o tema “Biodiversidade e ciclagem de nutrientes” (um exemplo é a influência da biodiversidade sobre a poluição e o equilíbrio de dióxido de carbono e oxigênio na atmosfera).
A iniciativa é voltada à melhoria do ensino da ciência da biodiversidade. Podem participar estudantes, alunos e professores do ensino médio, alunos de graduação e pesquisadores. Mais informações sobre os próximos encontros estão disponíveis em www.fapesp.br/8441

quinta-feira, 29 de maio de 2014

Aquecimento global atinge ápice na Antártida

Aquecimento global atinge ápice na Antártida



Tivemos um momento dramático na ciência da mudança climática. Um estudo inédito revelou que o colapso de grande parte da Antártida é inevitável. Por The Observer

por The Observer — publicado 28/05/2014
Por Eric Rignot*

Na segunda-feira 12 sediamos uma conferência da Nasa sobre a situação do manto de gelo na Antártida Ocidental que, pode-se dizer, provocou uma espécie de reação. "Este é um momento de incredulidade no aquecimento global", dizia em termos chulos uma manchete na revista Mother Jones.
Anunciamos que tínhamos coletado observações suficientes para concluir que o recuo do gelo no setor do mar de Amundsen na Antártida Ocidental era incontível, com graves consequências -- significa que os níveis do mar vão aumentar um metro em todo o mundo. Além disso, é provável que seu desaparecimento provoque o colapso do resto do manto de gelo da Antártida Ocidental, o que provocará um aumento do nível do mar entre 3 e 5 metros. Esse acontecimento vai desalojar milhões de pessoas em todo o mundo.
Dois séculos, se é que vai demorar tanto, pode parecer muito tempo, mas não há um botão vermelho para deter esse processo. Reverter o sistema climático ao que era na década de 1970 parece improvável; mal conseguimos conter as emissões de gases, que triplicaram desde o Protocolo de Kioto, o qual foi criado para atingir metas de redução. Desacelerar o aquecimento climático ainda é uma boa ideia, porém – o sistema antártico pelo menos levará mais tempo para alcançar esse ponto.
O setor do mar de Amundsen é quase tão grande quanto a França. Seis geleiras (ou glaciares) o drenam. As duas maiores são as de Pine Island (com 30 km de largura) e Thwaites (100 km de largura), que se estendem por mais de 500 quilômetros.
Muitos cientistas notáveis estiveram nesse campo antes de nós. O conceito da instabilidade na Antártida Ocidental remonta aos anos 1970, depois que estudos feitos por Charles Bentley nos anos 1960 revelaram uma camada de gelo que repousa sobre um leito fincado bem abaixo do nível do mar e que se aprofunda pelo continente. Hans Weertman havia mostrado em 1974 que uma camada de gelo com base marinha repousando sobre um leito retrógrado é instável. Robert Thomas ampliou seu trabalho para seguir a hipótese da instabilidade. Terry Hughes sugeriu que o setor da Pine Island na Antártida Ocidental era seu ventre frágil, e que seu recuo faria desmoronar o manto de gelo da Antártida Ocidental. Permanecia uma considerável incerteza sobre o cronograma, porém, devido a uma falta de observação dessa área muito distante.
As coisas mudaram com o lançamento do satélite ERS-1, que permitiu que as geleiras dessa parte da Antártida sejam observadas do espaço. Em 1997, descobri que a linha de desgaste (onde a geleira se destaca de seu leito e torna-se flutuante) de Pine Island havia recuado 5 quilômetros no espaço de quatro anos, entre 1992 e 1996. Stan Jacobs e Adrian Jenkins tinham descoberto um ano antes que a geleira estava se banhando em águas incomumente quentes, o que sugeria que o oceano tinha uma grande influência no processo. Duncan Wingham e outros mostraram que a geleira estava se tornando menos espessa. Em 2001, descobri que a Thwaites também estava recuando.
Nessa altura, a comunidade científica adotou um olhar diferente para a região. O trabalho da Pesquisa Antártica Britânica, da Nasa e do Chile levou a observações mais detalhadas, um programa de monitoramento foi iniciado, instrumentos foram colocados sobre o gelo e no oceano, e resultados científicos de diversos programas de pesquisa começaram a se acumular. A partir daí, todos buscamos descobrir se aquilo estava realmente acontecendo. Hoje, duas décadas após o início do processo, testemunhamos as linhas de desgaste das geleiras recuarem quilômetros a cada ano, as geleiras perdendo metros de espessura a cada ano, centenas de quilômetros terra adentro, perdendo bilhões de toneladas de água por ano e acelerando vários pontos percentuais por ano para as vertentes de divisões topográficas.
A geleira Thwaites começou a acelerar depois de 2006, e em 2011 detectamos um enorme recuo de suas linhas de desgaste a partir de 2000. Reconstruções detalhadas do leito da geleira confirmaram que nenhuma montanha ou monte atrás dessas geleiras poderia atuar como barreira e contê-las; e 40 anos de evolução do fluxo de geleiras mostravam que a aceleração era uma história antiga.
Todos esses resultados indicam um desmoronamento progressivo dessa área. No ritmo atual, uma grande fração da bacia terá desaparecido dentro de 200 anos, mas estudos de modelos recentes indicam que o ritmo do recuo aumentará no futuro. Como isso aconteceu? Uma pista é que todas as geleiras reagiram ao mesmo tempo, o que sugere uma força comum que só pode ser o oceano. O calor do oceano é empurrado pelos ventos de oeste, ou corrente ocidental, e esses ventos mudaram ao redor da Antártida, reagindo ao aquecimento climático e ao desgaste da camada de ozônio. Os ventos mais fortes são causados pelo aquecimento global mais rápido do que o resfriamento da Antártida. Os ventos de oeste mais fortes empurram mais águas quentes abaixo da superfície em direção ao polo, derretendo as geleiras, e empurram as águas da superfície para o norte.
Nerilie Abram e outros acabam de confirmar que os ventos de oeste estão mais fortes hoje do que em qualquer outro momento nos últimos mil anos, e sua potencialização foi especialmente destacada desde os anos 1970, em consequência do aquecimento climático induzido pelos humanos. As previsões com modelos também mostram que a tendência continuará em um clima cada vez mais quente.
O que isso significa em última instância é que podemos ser responsáveis por provocar o rápido recuo da Antártida Ocidental. Essa parte do continente provavelmente recuaria de qualquer modo, mas nós podemos tê-la empurrado mais rapidamente. Continua difícil definir um cronograma para isso, porque os modelos de computador ainda não são bons o suficiente, mas poderá ser dentro de alguns séculos, como eu comentei. Também há uma imagem maior que a Antártida Ocidental. O setor do mar de Amundsen não é a única parte vulnerável do continente. A Antártida Oriental inclui setores de base marinha que contêm mais gelo. Um deles, a geleira de Totten, contém o equivalente a 7 metros de nível do mar global.
Controlar o aquecimento climático poderá afinal fazer uma diferença não apenas na velocidade com que o gelo da Antártida Ocidental derreterá, mas também se outras partes da Antártida seguirão seu caminho. Há vários "candidatos" na fila, e nós parecemos ter descoberto uma maneira de desequilibrá-los mesmo antes que o aquecimento da temperatura do ar seja forte o suficiente para derreter a neve e o gelo na superfície.
O aquecimento climático de vários graus durante o próximo século provavelmente vai acelerar o colapso da Antártida Ocidental, mas também poderá provocar um recuo irreversível de setores de base marinha na Antártida Oriental. Se devemos fazer algo sobre isto é simplesmente uma questão de bom senso. E o momento para agir é agora; a Antártida não vai esperar.
*Eric Rignot é um glaceólogo do Laboratório de Propulsão a Jato da Nasa. Ele é o principal autor do notável trabalho científico apresentado na semana passada sobre a Antártida Ocidental

1987: ALEMÃO OCIDENTAL ATERRISSA NA PRAÇA VERMELHA

1987: ALEMÃO OCIDENTAL ATERRISSA NA PRAÇA VERMELHA



No dia 28 de maio de 1987, o piloto amador alemão Mathias Rust, de 19 anos, driblou os esquemas de segurança dos países da Cortina de Ferro e aterrissou em plena Praça Vermelha, na capital soviética.

Após atravessar a Escócia, as ilhas Shetland, as ilhas Faroe, Reiquiavique (Islândia), Bergen (Noruega), Helsinque (Finlândia) e sobrevoar três vezes a Praça Vermelha, em Moscou, um pequeno avião aterrissou a 30 metros da Muralha do Kremlin. Do seu interior, desceu um rapaz de 1,86m de altura, usando um blusão vermelho e óculos escuros.
O avião era um pequeno Cessna 172 e o piloto chamava-se Mathias Rust, programador de computadores de 19 anos de idade, natural da cidade de Wesel, perto de Hamburgo. A julgar pelos 900 quilômetros percorridos em território soviético, sem ser contido, e descendo a poucos passos do gabinete de Gorbatchov, ninguém teve dúvidas de que a ousada façanha foi muito bem planejada. Detido imediatamente, foi mais tarde julgado e condenado a quatro anos de prisão.
Mais de 300 pessoas estavam na Praça Vermelha quando o avião desceu, às 19h30min (horário local). Ninguém podia acreditar no que estava vendo. Mathias desceu, disse ser alemão, mas que vinha de Helsinque, e começou a assinar autógrafos. Os guardas do Kremlin só intervieram mais tarde.
Os oficiais chegaram em limusines pretas. Vários caminhões cercaram o local, a identificação da aeronave foi apagada com tinta e o piloto, preso. Ao mesmo tempo, a opinião pública mundial se surpreendia com a ousadia do jovem, que em plena Guerra Fria havia desafiado o poderio soviético. Mais ainda, questionava-se por que seu voo não havia sido interceptado.
Graves falhas na segurança
Como motivo, em princípio, Rust alegou querer impressionar uma garota. Mais tarde, ao prestar depoimento, alegou que "veio à União Soviética numa missão de paz, para conversar com Mikhail Gorbatchov".
O presidente soviético aproveitou o pretexto das falhas na segurança e afastou seu ministro da Defesa e alguns generais do alto comando militar. No dia 3 de setembro de 1987, Mathias Rust foi julgado por um tribunal soviético e condenado a quatro anos de trabalhos forçados.
Após grandes esforços diplomáticos, o rapaz acabou sendo libertado 14 meses mais tarde e deportado para a Alemanha. De volta ao seu país, não passaram de ameaças as intenções das autoridades locais de julgá-lo por ter ameaçado o espaço aéreo. A família, por seu lado, enriqueceu com a venda da história a uma revista alemã.
Dois anos mais tarde, Mathias Rust voltou às manchetes. Em novembro de 1989, ele atacou com uma faca uma estudante de enfermagem, porque ela não queria beijá-lo. Durante o julgamento, os psicólogos concluíram que Rust possuía uma personalidade complexa, incapaz de aceitar uma rejeição. Para ele, a aterrissagem em Moscou teria sido o maior êxito de sua vida. Rust acabou condenado a dois anos e meio de prisão.
Libertado em 1994, retornou no ano seguinte a Moscou para visitar um centro de crianças. Depois de trabalhar dois anos na capital russa como vendedor de sapatos, voltou à Alemanha, enfrentando graves problemas financeiros. Em 2001, esteve mais uma vez no banco dos réus. Aos 33 anos de idade, Mathias foi condenado em Hamburgo a pagar multa de 10 mil marcos por ter roubado um blusão de caxemira numa loja de departamentos. Ele recorreu da sentença, e no final teve de pagar 600 marcos de multa.

Reinterpretação histórica da Geopolítica

Reinterpretação histórica da Geopolítica



As grandes transformações que ocorreram no mundo nas duas últimas décadas, dentre as quais tem um grande peso a expansão universal do espaço cibernético, carrearam, como consequência natural, notáveis transformações na geografia humana no planeta. Mudanças que se traduzem em uma reinterpretação histórica da Geopolítica e no questionamento de muitos de seus pressupostos, os quais eram conceituados de forma determinística pelo discurso clássico das ciências políticas.


Denominamos de Geopolítica a ciência que pretende interpretar os fenômenos que permeiam a política nacional ou internacional no estudo sistemático dos fatores geográficos, econômicos, raciais, culturais e religiosos. Desde a criação do termo pelo renomado geógrafo sueco Rudolf Kjëllen, em 1916, em seu famoso livro em que consagra o Estado como organismo vivente, a Geopolítica desenvolveu seu conceito básico segundo o qual os Estados possuem muito das características dos organismos viventes.



Ao mesmo tempo, se anuncia a idéia de que um Estado teria de crescer, expandir-se ou morrer dentro das “fronteiras vivas”. Devido a isso é que tais fronteiras têm uma natureza dinâmica e são susceptíveis a mudanças. A Geopolítica é uma ciência que através da Geografia Política, da Geografia Descritiva e da História, estuda a causalidade espacial dos acontecimentos políticos e seus futuros efeitos. 



A Geopolítica teve grande aceitação na Alemanha no alvorecer do século XX e atingiu grande difusão durante a primazia do regime nazista. O general alemão Karl Hausshofer modernizou a Geografia Política utilizando-a como instrumento que justificasse a expansão da Alemanha durante o Terceiro Reich e desenvolvendo as teorias do espaço vital do geógrafo alemão Friedrich Ratzel (Lebensraum), apoiadas pelo professor sueco Rudolf Kjëllen. Países como a Rússia, a China, e o Japão também deram grande importância a esta ciência durante os anos 30 e 40 do século passado, como meio para atingir o poder global.



A utilização propagandística da Geopolítica acarretou, após a derrota alemã na Segunda Guerra Mundial, seu descrédito e esquecimento, sobretudo no âmbito acadêmico. Não obstante, alguns segmentos, principalmente militares e diplomatas, seguiram interessados por este ramo da Geografia, na qual podia ler-se os acordos explicitados na Conferência de Yalta, onde ditaram as premissas ordenadoras do mundo pós-guerra e que, certamente, moldaram os paradigmas mantenedores da Guerra Fria.



Entretanto, as condições que emolduravam o conflito Leste-Oeste e os ideais democráticos do mundo ocidental fizeram modificar substancialmente seus fundamentos e objetivos. Daí se originaram novas teorias emanadas por potências como Inglaterra, França e Estados Unidos, que se orientaram basicamente a exercer o controle em determinados espaços terrestres e marítimos considerados chaves, o que se materializa por meio de uma gravitação estratégica e econômica, sem necessidade de perpetrar uma anexação territorial do tipo formal.



A expressão prática desta visão está consolidada no Tratado de Defesa do Atlântico Norte (Otan) e foi sobejamente testada com a crise dos mísseis, ocorrida em 1962. Fica bastante claro que sem os parâmetros ordenadores da Geopolítica, o mundo teria sido arrasado por uma hecatombe nuclear.



Após a queda do Muro de Berlim, que pôs fim à Guerra Fria, a Geopolítica retomou o interesse perdido e voltou a crescer ao amparo das tensões internacionais surgidas com o desmembramento da União Soviética. É nesse cenário que emergem os Estados Unidos como a superpotência única, sem contrapesos imediatos. Esta situação os incentiva a iniciar o desenvolvimento de uma política de poder tendente ao controle do mundo, e que tenta legitimar sobre as bases de ser o vencedor da Guerra Fria e de sua superior qualidade econômica, cultural e militar. Dissipa-se assim o tradicional conflito Leste-Oeste e começam a ser mais notórias as diferenças no que concerne a níveis culturais e de desenvolvimento do eixo Norte-Sul.



O Estado-Nação continua sendo o elemento básico do sistema internacional que aglutina a identidade nacional, a coesão de um povo e mantém a sua soberania. Entretanto, já não constitui o único ator relevante, e a soberania muitas vezes deve subordinar-se à conveniência de acatar as regras impostas pela globalização. No cenário atual surgem novos e atuantes atores. Entre estes podemos enumerar os blocos econômicos regionais, as reagrupações de Estados objetivando a defesa mútua, as grandes empresas multinacionais e as organizações não governamentais. Entretanto, a Geopolítica segue vigente, com novos atores e cenários, porém em franco desenvolvimento. 





Manuel Cambeses Júnior



Coronel-aviador, conferencista especial da ESG, membro emérito do Instituto de Geografia e História Militar do Brasil e conselheiro do Incaer 

quarta-feira, 28 de maio de 2014

Quando até a classe média é expulsa de seus bairros…

Quando até a classe média é expulsa de seus bairros…



BRICS: uma nova arquitetura de finanças e desenvolvimento

BRICS: uma nova arquitetura de finanças e desenvolvimento



Os BRICS iniciaram tratativas para a criação de alternativas ao FMI e ao Banco Mundial, instituições dominadas hoje pelos EUA e pela União Europeia.


José Carlos Peliano (*)

Créditos da foto: Arquivo

Arquivo


Brasil, Rússia, Índia, China e África do Sul, o grupo de países chamado BRICS, têm debatido entre si a possibilidade de estruturar novas alternativas de assistência financeira internacional e de financiamento ao desenvolvimento mundial que atendam aos seus interesses e as suas necessidades. O Fundo Monetário Internacional (FMI) e o Banco Mundial (BM) estão na berlinda.



Dominadas pelos Estados Unidos e União Europeia (UE) essas duas instituições multilaterais há tempos não têm reconhecido a importância do grupo no cenário internacional nem favorecido condições para um papel mais positivo dos BRICS nos seus órgãos decisórios.  Daí ter o grupo iniciado tratativas sobre a necessidade de criação de alternativas, um pool de reservas monetárias em substituição ao FMI e um novo banco de desenvolvimento em lugar do BM.



A imprensa estrangeira indica que um rascunho preliminar sobre a organização do banco dos BRICS já teria sido proposta pelo Brasil, enquanto o desenho dos acordos intergovernamentais dos países membros do grupo está a cargo da Rússia.



As propostas das duas novas instituições referenciadas aos BRICS, se aprovadas até o final deste ano, devem entrar em funcionamento já no ano que vem segundo fontes dos países do grupo.



O capital previsto para as duas instituições gira em torno de US$ 100 bilhões cada. Conversações já existem entre os membros do grupo para a distribuição do capital inicial de US$ 50 bilhões entre eles bem como a localização das sedes das instituições. Todos os países demonstraram interesse em ter as sedes em seus territórios.



No estágio atual das conversações, a distribuição prevista das reservas internacionais é a seguinte: China, US$ 41 bilhões, Brasil, Índia e Rússia, US$ 18 bilhões cada e África do Sul, US$ 5 bilhões. As participações têm por base o tamanho de cada economia.



Para se ter uma ideia do montante previsto de assistência financeira pelo novo Fundo dos BRICS, as reservas do FMI expressas em “Special Drawing Rights (SDR)” ou Direitos Especiais de Saque atingem US$ 370 bilhões. Mas enquanto os US$ 100 bilhões do Fundo dos BRICS serão divididos pelos 5 membros, os US$ 370 do FMI são potencialmente divididos pelos 188 países membros.



A proposta do banco dos BRICS além de escapar da acirrada disputa pelos recursos do BM indica a postura do grupo de sair fora da zona de influência e domínio dos Estados Unidos e da União Europeia na aprovação de projetos. Querem os BRICS que seus projetos sejam apresentados por eles e por eles aprovados sem ingerência de interesses externos.  



A oportunidade da proposta do banco dos BRICS vem ao encontro da autonomia na gestão e liberação dos recursos. Mas ela dá conta também da importância assumida pelo grupo de países no cenário internacional em termos dos tamanhos e pujanças de suas economias. A consequência direta da emergência desses novos agentes no mundo é a influência econômica e política que passam a ter entre os demais países, especialmente os menos desenvolvidos.



Pois a influência econômica e política será posta em prática por meio do financiamento externo a projetos de desenvolvimento. O continente mais visado é o africano através da assistência financeira a pequenos e grandes empreendimentos de infraestrutura desde os básicos aos mais complexos. 



Em termos políticos, a ascendência dos BRICS na África será imediata, uma vez que terá condições de propor e desenvolver projetos diferentes dos padrões usuais de negociação e contratos, além de serem diretamente ouvidos pelos países assistidos, diferentemente do que ocorre hoje no âmbito das agências multilaterais. 



Em termos econômicos as empresas do grupo terão mercado garantido como contratantes e fornecedoras de equipamentos.  Ao contrário do que ocorre sob a influência do FMI e BM quando as empresas hegemônicas dos EUA e UE têm sempre preferencia e influência.



Já em termos internacionais, os BRICS não deverão se ausentar do FMI nem do BM, pelo menos de início. Não há razão imediata para a retirada de seus delegados desses foros de negociação internacional. Pelo contrário, a permanência do grupo dá mais força e representatividade podendo até mesmo vir a ser ascendido, ou parte de seus membros, a posições favorecidas e de decisão.



Já a proposta do Fundo dos BRICS tem a ver com uma reserva de moedas que serve de maneira predominante de seguro financeiro. Funciona como último recurso para solucionar situações emergenciais quando um ou alguns de seus membros sofram de problemas financeiros ou déficits orçamentários.



A Rússia, por exemplo, já seria uma candidata em potencial do Fundo ao passar por um período com o valor de sua moeda em queda. O Fundo seria oportuno para suprir a falta temporária de moeda para a cobertura dos problemas de balanço de pagamentos. Igualmente para sanar desequilíbrios localizados do sistema bancário na medida que os bancos, supridos com moeda estrangeira para cobrir seus déficits, não tenham condições de honrar os débitos externos assumidos. Serviria também para entrar em ação quando as moedas de países membros do grupo sofressem desvalorização face à política monetária mais frouxa dos Estados Unidos e/ou da União Europeia.



Como o FMI atua com mais frequência na proteção das crises e valores dos países desenvolvidos e de forma mais emergencial e imediata, o Fundo alternativo dos BRICS vai garantir proteção e ajuda “just in time” de seus membros. Por fim, mas não menos importante, o Fundo vai permitir que o grupo não dependa exclusivamente das moedas e valores internacionais, passando a ser com o tempo e gradativamente provido, garantido e administrado com mais predominância pela cesta de suas próprias moedas.



Nada como um dia depois do outro com a noite no meio. Países antes chamados de em desenvolvimento, depois de menos desenvolvidos, posteriormente de emergentes e agora de novos atores mundiais, começam a atuar como gente grande e a definir com mais autonomia seus próprios rumos e em conjunto suas relações no cenário internacional. Tem tudo para alterar o equilíbrio de forças na ordem econômica mundial vigente pelo menos quanto ao financiamento e à construção de projetos de desenvolvimento para si e países menos favorecidos.
(*) Economista