segunda-feira, 14 de novembro de 2011

Dez tendências tecnológicas para 2012

Dez áreas tecnológicas merecem a atenção das empresas hoje e no próximo ano, segundo estudo recém divulgado pelo Gartner. Entre elas, a empresa de consultoria classifica a mobilidade em primeiro lugar, por forçar as empresas a prepararem o seu software de modo a disponibilizarem acesso às aplicações de todas as formas possíveis e promover a consumerização das TICs ou a abordagem “Bring Your own Device” (BYOD) ou “Bring Your own Technology” (BYOT).

Não por acaso, a segunda maior preocupação para a estratégica dos CIO centra-se nas aplicações e interfaces e sua adaptação ao novo ambiente de mobilidade. A Gartner observa que os parâmetros válidos há 20 anos (baseados em janelas, menus e ícones) devem ser substituídos por tecnologias com enfoque na mobilidade, que incluem sistemas de interação por toque, por vídeo ou por voz, priorizando novos padrões como o HTML5.

A experiência do usuário de redes sociais e as tecnologias contextuais também serão um ponto extremamente importante na agenda dos líderes de TI para o ano de 2012, na lista da consultoria, junto com a chamada Internet das Coisas, que ocupa a quarta posição na lista. Neste sentido, as tecnologias de comunicação em proximidade ou Near Field Communication (NFC), para pagamentos móveis, começará a ter projetos concretos.

Também relacionada com a mobilidade, está a quinta tendência a ser considerada pelos CIOs no próximo ano: as lojas online de aplicações. A App Store e o Android Market, em conjunto, deverão distribuir cerca de 70 mil milhões de aplicações móveis até 2014. Da perspectiva do ambiente corporativo, isso significa passar de um planejamento mais centralizado para uma abordagem na qual é necessário ter em conta um mercado onde existem vários fornecedores e aplicações. Assim as empresas terão de avaliar melhor os riscos e o valor que cada uma traz para a organização como um todo.

 

BI e análise de dados


Muitas empresas já usam plataformas de Business Intelligence e soluções de análise de dados. Mas na verdade, diversos estudos têm mostrado que nem todas conseguem extrair o máximo de benefícios a partir delas. Por isso, existe ainda um longo caminho a percorrer nessa área. Considerando a conjuntura econômica, as empresas não podem deixar de investir em soluções capazes de permitir conhecer em profundidade as necessidades e o comportamento dos seus clientes. Isso permite a cada uma delas responder de acordo com as necessidades de seus clientes, melhorando assim seus negócios. Face à contenção nos orçamentos de investimento em TI, as empresas devem procurar extrair o máximo das soluções de BI que já têm. Nesse ponto, o enfoque no “Big Data” pode ser enganador.

A expressão “Big Data” ou grandes volumes de dados é usada para reconhecer o crescimento exponencial de dados, a disponibilidade e o uso da informação em ambientes futuros. Este conceito dá um peso indevido ao volume de informações a ser gerido, segundo o Gartner. Muitos CIO focaram-se simplesmente na gestão de grandes volumes de dados, esquecendo-se muitas outras dimensões relacionadas com a gestão da informação. Deixam no ar, assim, muitos desafios a serem abordados mais tarde, muitas vezes com maiores dificuldades. Questões de acesso e classificação de dados não podem ser negligenciadas. Caso contrário, segundo os analistas da Gartner, a empresa se verá obrigada a um novo investimento massivo – em dois ou três anos – para resolver problemas negligenciados quando da implantação de infraestrutura.

 

Nova fase para o modelo de cloud computing


Completam a lista compilada pelo Gartner as tecnologias in-memory, e os servidores de baixo consumo energético para cloud computing – a tendência mais comentada no mundo das TIC, desde que apareceu há cinco anos.

Apesar de ser um importante fator no setor das TIC, a cloud computing ainda não está produzindo os resultados esperados. De acordo com um estudo da Symantec, organizações que já investiram em tecnologias de virtualização e em plataformas de cloud, híbridas ou privadas, tendem a seguir um caminho semelhante: evoluir da virtualização de aplicações menos críticas para as mais importantes (como o e-mail e as aplicações de colaboração, de comércio eletrônico e da cadeia de abastecimento, bem como as de planejamento de recursos empresariais e de gestão das relações clientes).

Nesse sentido, mais da metade (59%) pretende virtualizar as aplicações de bases de dados ao longo dos próximos 12 meses. Cerca de 55% pretende virtualizar aplicações Web e 47% consideram virtualizar aplicações de correio eletrônico e calendário. Apenas 41% tencionam virtualizar aplicações ERP, segundo a Gartner.

E, à medida que as tecnologias de virtualização e as clouds privadas são cada vez mais adotadas, o custo e o desempenho dos sistemas de armazenamento crescem de importância na hora de escolher um ou outro sistema. Mais da metade dos entrevistados pela Symantec (56%) afirmou que os custos de armazenamento aumentaram com a virtualização de servidores.

Portanto, as três principais razões para a implantação de virtualização de sistemas de armazenamento, incluem redução dos custos operacionais (55%), melhorias de desempenho dos sistemas de armazenamento (54%), e melhorias do potencial de recuperação de desastres (53 %). Embora a tendência seja irreversível, a implantação real de cloud computing nem sempre satisfaz os critérios previamente estabelecidos. O estudo observa ainda que os projetos de virtualização de servidores são os mais bem sucedidos. Normalmente existe uma diferença média de 4% entre os objetivos propostos e os alcançados. É uma diferença muito menor do que a registrada para os sistemas de virtualização de armazenamento, em torno de 33%, com grandes decepções em termos de capacidades de escala, flexibilidade e redução dos custos operacionais.

 

Fonte: IDG Now!
Publicado em: 08/11/2011

sábado, 12 de novembro de 2011

Faça ligações gratuitas para telefones fixos de qualquer lugar do Brasil


Aprenda a utilizar os serviços da Tellfree, que permite ligar para qualquer telefone fixo do país e conversar por até 10 minutos.


A empresa Tellfree está disponibilizando, por tempo indeterminado, o serviço de ligações gratuitas para qualquer telefone fixo do Brasil. A duração da chamada poderá ter até 10 minutos e ser realizada em qualquer horário. O serviço é disponibilizado por meio da tecnologia VoIP, ou Voz sobre IP, que nada mais é do que uma forma de realizar chamadas telefonicas por meio de uma rede de dados IP, seja na Internet ou a sua própria rede interna. A atração principal de VoIP é possibilidade de redução de despesas, uma vez que as chamadas trafegam pela rede de dados, em vez de a rede da empresa de telefonia.

Realizando chamadas

Para utilizar o serviço você vai precisar:
  • Microfone e caixa de som (ou fone de ouvido);
  • Java para Windows, Linux ou Mac;
  • Permissão do seu firewall;
  • Um navegador para acessar e utilizar o serviço de discagem.
Agora é simples. Acesse a página do serviço. Do lado esquerdo da tela, clique na imagem de um aparelho celular (sinalizado com a frase: faça chamadas gratuitas aqui).

Na tela que será aberta, digite o número que deseja telefonar, inserindo ZERO + CÓDIGO DE ÁREA + NÚMERO DO DESTINO. Exemplo: 011 2126 2700. Depois, basta clicar em Call e, para interromper a ligação, use Hangup. Atenção: mesmo que você esteja realizando uma ligação local, deverá inserir o código de área.


Fale com qualquer número fixo no Brasil sem pagar nada por isso
 
Antes de utilizar o serviço, é recomendável fazer um teste da sua conexão, que é oferecido pelo próprio site (clique na aba Teste de banda). Para que a telefonia IP tenha qualidade perfeita, sua conexão deverá garantir, no mínimo, 30k de upload e download por canal de voz (recomendação da empresa que oferece o serviço).

Ponto positivo e negativo

O lado bom é que o serviço não exige cadastro e o ruim é que, enquanto a ligação não é iniciada, são exibidas propagandas da empresa, o que é perfeitamente aceitável já que estão oferecendo o serviço gratuitamente. Outro detalhe: os 10 minutos começam a contar a partir do momento em que começa a chamar, e não do efetivo início da conversa.

 
Fonte: Cristine Gleria Vecchi, Superdownloads
Publicado em 09-11-2011

segunda-feira, 7 de novembro de 2011

Desafios do "tsunami de dados"


Lançado pelo Instituto Microsoft Research-FAPESP de Pesquisas em TI, o livro O Quarto Paradigma debate os desafios da eScience, nova área dedicada a lidar com o imenso volume de informações que caracteriza a ciência atual.

Se há alguns anos a falta de dados limitava os avanços da ciência, hoje o problema se inverteu. O desenvolvimento de novas tecnologias de captação de dados, nas mais variadas áreas e escalas, tem gerado um volume tão imenso de informações que o excesso se tornou um gargalo para o avanço científico.


Nesse contexto, cientistas da computação têm se unido a especialistas de diferentes áreas para desenvolver novos conceitos e teorias capazes de lidar com a enxurrada de dados da ciência contemporânea. O resultado é chamado de eScience.

Esse é o tema debatido no livro O Quarto Paradigma – Descobertas científicas na era da eScience, lançado no dia 3 de novembro pelo Instituto Microsoft Research-FAPESP de Pesquisas em TI.

Organizado por Tony Hey, Stewart Tansley, Kristin Tolle – todos da Microsoft Research –, a publicação foi lançada na sede da FAPESP, em evento que contou com a presença do diretor científico da Fundação, Carlos Henrique de Brito Cruz.

Durante o lançamento, Roberto Marcondes Cesar Jr., do Instituto de Matemática e Estatística (IME) da Universidade de São Paulo (USP), apresentou a palestra “eScience no Brasil”. “O Quarto Paradigma: computação intensiva de dados avançando a descoberta científica” foi o tema da palestra de Daniel Fay, diretor de Terra, Energia e Meio Ambiente da MSR.

Brito Cruz destacou o interesse da FAPESP em estimular o desenvolvimento da eScience no Brasil. “A FAPESP está muito conectada a essa ideia, porque muitos dos nossos projetos e programas apresentam essa necessidade de mais capacidade de gerenciar grandes conjuntos de dados. O nosso grande desafio está na ciência por trás dessa capacidade de lidar com grandes volumes de dados”, disse.

Iniciativas como o Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG), o BIOTA-FAPESP e o Programa FAPESP de Pesquisa em Bioenergia (BIOEN) são exemplos de programas que têm grande necessidade de integrar e processar imensos volumes de dados.

Sabemos que a ciência avança quando novos instrumentos são disponibilizados. Por outro lado, os cientistas normalmente não percebem o computador como um novo grande instrumento que revoluciona a ciência. A FAPESP está interessada em ações para que a comunidade científica tome consciência de que há grandes desafios na área de eScience”, disse Brito Cruz.

O livro é uma coleção de 26 ensaios técnicos divididos em quatro seções: “Terra e meio ambiente”, “Saúde e bem-estar”, “Infraestrutura científica” e “Comunicação acadêmica”.

O livro fala da emergência de um novo paradigma para as descobertas científicas. Há milhares de anos, o paradigma vigente era o da ciência experimental, fundamentada na descrição de fenômenos naturais. Há algumas centenas de anos, surgiu o paradigma da ciência teórica, simbolizado pelas leis de Newton. Há algumas décadas, surgiu a ciência computacional, simulando fenômenos complexos. Agora, chegamos ao quarto paradigma, que é o da ciência orientada por dados”, disse Fay.

Com o advento do novo paradigma, segundo ele, houve uma mudança completa na natureza da descoberta científica. Entraram em cena modelos complexos, com amplas escalas espaciais e temporais, que exigem cada vez mais interações multidisciplinares.

Os dados, em quantidade incrível, são provenientes de diferentes fontes e precisam também de abordagem multidisciplinar e, muitas vezes, de tratamento em tempo real. As comunidades científicas também estão mais distribuídas. Tudo isso transformou a maneira como se fazem descobertas”, disse Fay.

A ecologia, uma das áreas altamente afetadas pelos grandes volumes de dados, é um exemplo de como o avanço da ciência, cada vez mais, dependerá da colaboração entre pesquisadores acadêmicos e especialistas em computação.

Vivemos em uma tempestade de sensoriamento remoto, sensores terrestres baratos e acesso a dados na internet. Mas extrair as variáveis que a ciência requer dessa massa de dados heterogêneos continua sendo um problema. É preciso ter conhecimento especializado sobre algoritmos, formatos de arquivos e limpeza de dados, por exemplo, que nem sempre é acessível para o pessoal da área de ecologia”, explicou.

O mesmo ocorre em áreas como medicina e biologia – que se beneficiam de novas tecnologias, por exemplo, em registros de atividade cerebral, ou de sequenciamento de DNA – ou a astronomia e física, à medida que os modernos telescópios capturam terabytes de informação diariamente e o Grande Colisor de Hádrons (LHC) gera petabytes de dados a cada ano.


Instituto Virtual

Segundo Cesar Jr., a comunidade envolvida com eScience no Brasil está crescendo. O país tem 2.167 cursos de sistemas de informação ou engenharia e ciências da computação. Em 2009, houve 45 mil formados nessas áreas e a pós-graduação, entre 2007 e 2009, tinha 32 cursos, mil orientadores, 2.705 mestrandos e 410 doutorandos.

A ciência mudou do paradigma da aquisição de dados para o da análise de dados. Temos diferentes tecnologias que produzem terabytes em diversos campos do conhecimento e, hoje, podemos dizer que essas áreas têm foco na análise de um dilúvio de dados”, disse o membro da Coordenação da Área de Ciência e Engenharia da Computação da FAPESP.

Em 2006, a Sociedade Brasileira de Computação (SBC) organizou um encontro a fim de identificar os problemas-chave e os principais desafios para a área. Isso levou a diferentes propostas para que o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) criasse um programa específico para esse tipo de problema.

Em 2009, realizamos uma série de workshops na FAPESP, reunindo, para discutir essa questão, cientistas de áreas como agricultura, mudanças climáticas, medicina, transcriptômica, games, governo eletrônico e redes sociais. A iniciativa resultou em excelentes colaborações entre grupos de cientistas com problemas semelhantes e originou diversas iniciativas”, disse César Jr.

As chamadas do Instituto Microsoft Research-FAPESP de Pesquisas em TI, segundo ele, têm sido parte importante do conjunto de iniciativas para promover a eScience, assim como a organização da Escola São Paulo de Ciência Avançada em Processamento e Visualização de Imagens Computacionais. Além disso, a FAPESP tem apoiado diversos projetos de pesquisa ligados ao tema.

A comunidade de eScience em São Paulo tem trabalhado com profissionais de diversas áreas e publicado em revistas de várias delas. Isso é indicação de qualidade adquirida pela comunidade para encarar o grande desafio que teremos nos próximos anos”, disse César Jr., que assina o prefácio da edição brasileira do livro.
  • O Quarto Paradigma
    Organizadores: Tony Hey, Stewart Tansley e Kristin Tolle
    Lançamento: 2011
    Preço: R$ 60
    Páginas: 263
    Mais informações: www.ofitexto.com.br 

Por Fábio de Castro, Agência FAPESP
Publicado em 07-11-2011