quarta-feira, 7 de dezembro de 2011

Rival para o iOS? Windows 8 será um fracasso nos tablets, diz IDC

Para consultoria, novo sistema da Microsoft não traz nenhuma novidade nos PCs e chega muito tarde para brigar com o sistema do iPad e com o Android.



O Windows 8 ainda não está nem no seu estágio beta, mas a consultoria IDC já prevê que ele não será uma ameaça ao iOS, da Apple, e que poucos donos de PCs farão o upgrade do Windows 7 para o novo sistema.

E isso é apenas o começo – a companhia também afirma que os tablets com Windows 8 serão um fracasso. Essas precisões nada boas para a Microsoft estão em novo relatório chamado Worldwide System Infrastructure Software 2012 Top 10 Predictions.

O Windows 8 será amplamente irrelevante para os usuários de PCs tradicionais, e nós esperamos que não exista efetivamente uma atividade de upgrade do Windows 7 para o Windows 8 dessa forma”, diz o documento.

A razão para isso é até um pouco óbvia: se o que foi mostrado da versão preview para desenvolvedores do Windows for igual ao que chegar ao mercado, não há muitas coisas novas úteis para os donos de desktops e notebook. A nova interface Metro é claramente desenvolvida para telas sensíveis ao toque e tablets, e o Windows 8 no desktop se parece muito com o Windows 7. Simplesmente não há razões o suficiente aí para uma atualização de sistema.

As companhias em particular ficarão longe por causa dos problemas de compatibilidade que o Metro pode trazer às grandes empresas, assim como o suporte adicional e os novos treinamentos que seriam exigidos pelo Windows 8.

É claro que todo mundo que comprar um novo PC receberá o Windows 8. Por isso, haverá muitas cópias no mercado. Mas apenas não veremos muitos upgrades, aponta a IDC.

Interface Metro do Windows 8, que deve fracassar no mercado segundo a IDC


Tablets


Como o Windows 8 parece ter sido amplamente criado para tablets, como os tablets com o sistema se sairão no mercado? Conforme falamos acima, a IDC mais uma vez não ficou impressionada com o SO, e espera que as vendas de tablets Windows 8 em 2012 sejam “decepcionantes”

E a IDC não é a única a pensar assim, já que a consultoria Forrester recentemente alertou que por chegarem muito tarde no mercado, os tablets com Windows 8 fracassarão contra o líder iPad e outros rivais como o Amazon Kindle Fire e o Samsung Galaxy Tab.

É claro que, como o lançamento do Windows 8 ainda está um pouco longe, a Microsoft pode reconsiderar sua decisão de deixar a versão para desktop praticamente intocada. Mas não espere tantos upgrades como vimos no anterior Windows 7.

Fonte: IDG News Service / EUA
Publicado em 07-12-2011

segunda-feira, 14 de novembro de 2011

Dez tendências tecnológicas para 2012

Dez áreas tecnológicas merecem a atenção das empresas hoje e no próximo ano, segundo estudo recém divulgado pelo Gartner. Entre elas, a empresa de consultoria classifica a mobilidade em primeiro lugar, por forçar as empresas a prepararem o seu software de modo a disponibilizarem acesso às aplicações de todas as formas possíveis e promover a consumerização das TICs ou a abordagem “Bring Your own Device” (BYOD) ou “Bring Your own Technology” (BYOT).

Não por acaso, a segunda maior preocupação para a estratégica dos CIO centra-se nas aplicações e interfaces e sua adaptação ao novo ambiente de mobilidade. A Gartner observa que os parâmetros válidos há 20 anos (baseados em janelas, menus e ícones) devem ser substituídos por tecnologias com enfoque na mobilidade, que incluem sistemas de interação por toque, por vídeo ou por voz, priorizando novos padrões como o HTML5.

A experiência do usuário de redes sociais e as tecnologias contextuais também serão um ponto extremamente importante na agenda dos líderes de TI para o ano de 2012, na lista da consultoria, junto com a chamada Internet das Coisas, que ocupa a quarta posição na lista. Neste sentido, as tecnologias de comunicação em proximidade ou Near Field Communication (NFC), para pagamentos móveis, começará a ter projetos concretos.

Também relacionada com a mobilidade, está a quinta tendência a ser considerada pelos CIOs no próximo ano: as lojas online de aplicações. A App Store e o Android Market, em conjunto, deverão distribuir cerca de 70 mil milhões de aplicações móveis até 2014. Da perspectiva do ambiente corporativo, isso significa passar de um planejamento mais centralizado para uma abordagem na qual é necessário ter em conta um mercado onde existem vários fornecedores e aplicações. Assim as empresas terão de avaliar melhor os riscos e o valor que cada uma traz para a organização como um todo.

 

BI e análise de dados


Muitas empresas já usam plataformas de Business Intelligence e soluções de análise de dados. Mas na verdade, diversos estudos têm mostrado que nem todas conseguem extrair o máximo de benefícios a partir delas. Por isso, existe ainda um longo caminho a percorrer nessa área. Considerando a conjuntura econômica, as empresas não podem deixar de investir em soluções capazes de permitir conhecer em profundidade as necessidades e o comportamento dos seus clientes. Isso permite a cada uma delas responder de acordo com as necessidades de seus clientes, melhorando assim seus negócios. Face à contenção nos orçamentos de investimento em TI, as empresas devem procurar extrair o máximo das soluções de BI que já têm. Nesse ponto, o enfoque no “Big Data” pode ser enganador.

A expressão “Big Data” ou grandes volumes de dados é usada para reconhecer o crescimento exponencial de dados, a disponibilidade e o uso da informação em ambientes futuros. Este conceito dá um peso indevido ao volume de informações a ser gerido, segundo o Gartner. Muitos CIO focaram-se simplesmente na gestão de grandes volumes de dados, esquecendo-se muitas outras dimensões relacionadas com a gestão da informação. Deixam no ar, assim, muitos desafios a serem abordados mais tarde, muitas vezes com maiores dificuldades. Questões de acesso e classificação de dados não podem ser negligenciadas. Caso contrário, segundo os analistas da Gartner, a empresa se verá obrigada a um novo investimento massivo – em dois ou três anos – para resolver problemas negligenciados quando da implantação de infraestrutura.

 

Nova fase para o modelo de cloud computing


Completam a lista compilada pelo Gartner as tecnologias in-memory, e os servidores de baixo consumo energético para cloud computing – a tendência mais comentada no mundo das TIC, desde que apareceu há cinco anos.

Apesar de ser um importante fator no setor das TIC, a cloud computing ainda não está produzindo os resultados esperados. De acordo com um estudo da Symantec, organizações que já investiram em tecnologias de virtualização e em plataformas de cloud, híbridas ou privadas, tendem a seguir um caminho semelhante: evoluir da virtualização de aplicações menos críticas para as mais importantes (como o e-mail e as aplicações de colaboração, de comércio eletrônico e da cadeia de abastecimento, bem como as de planejamento de recursos empresariais e de gestão das relações clientes).

Nesse sentido, mais da metade (59%) pretende virtualizar as aplicações de bases de dados ao longo dos próximos 12 meses. Cerca de 55% pretende virtualizar aplicações Web e 47% consideram virtualizar aplicações de correio eletrônico e calendário. Apenas 41% tencionam virtualizar aplicações ERP, segundo a Gartner.

E, à medida que as tecnologias de virtualização e as clouds privadas são cada vez mais adotadas, o custo e o desempenho dos sistemas de armazenamento crescem de importância na hora de escolher um ou outro sistema. Mais da metade dos entrevistados pela Symantec (56%) afirmou que os custos de armazenamento aumentaram com a virtualização de servidores.

Portanto, as três principais razões para a implantação de virtualização de sistemas de armazenamento, incluem redução dos custos operacionais (55%), melhorias de desempenho dos sistemas de armazenamento (54%), e melhorias do potencial de recuperação de desastres (53 %). Embora a tendência seja irreversível, a implantação real de cloud computing nem sempre satisfaz os critérios previamente estabelecidos. O estudo observa ainda que os projetos de virtualização de servidores são os mais bem sucedidos. Normalmente existe uma diferença média de 4% entre os objetivos propostos e os alcançados. É uma diferença muito menor do que a registrada para os sistemas de virtualização de armazenamento, em torno de 33%, com grandes decepções em termos de capacidades de escala, flexibilidade e redução dos custos operacionais.

 

Fonte: IDG Now!
Publicado em: 08/11/2011

sábado, 12 de novembro de 2011

Faça ligações gratuitas para telefones fixos de qualquer lugar do Brasil


Aprenda a utilizar os serviços da Tellfree, que permite ligar para qualquer telefone fixo do país e conversar por até 10 minutos.


A empresa Tellfree está disponibilizando, por tempo indeterminado, o serviço de ligações gratuitas para qualquer telefone fixo do Brasil. A duração da chamada poderá ter até 10 minutos e ser realizada em qualquer horário. O serviço é disponibilizado por meio da tecnologia VoIP, ou Voz sobre IP, que nada mais é do que uma forma de realizar chamadas telefonicas por meio de uma rede de dados IP, seja na Internet ou a sua própria rede interna. A atração principal de VoIP é possibilidade de redução de despesas, uma vez que as chamadas trafegam pela rede de dados, em vez de a rede da empresa de telefonia.

Realizando chamadas

Para utilizar o serviço você vai precisar:
  • Microfone e caixa de som (ou fone de ouvido);
  • Java para Windows, Linux ou Mac;
  • Permissão do seu firewall;
  • Um navegador para acessar e utilizar o serviço de discagem.
Agora é simples. Acesse a página do serviço. Do lado esquerdo da tela, clique na imagem de um aparelho celular (sinalizado com a frase: faça chamadas gratuitas aqui).

Na tela que será aberta, digite o número que deseja telefonar, inserindo ZERO + CÓDIGO DE ÁREA + NÚMERO DO DESTINO. Exemplo: 011 2126 2700. Depois, basta clicar em Call e, para interromper a ligação, use Hangup. Atenção: mesmo que você esteja realizando uma ligação local, deverá inserir o código de área.


Fale com qualquer número fixo no Brasil sem pagar nada por isso
 
Antes de utilizar o serviço, é recomendável fazer um teste da sua conexão, que é oferecido pelo próprio site (clique na aba Teste de banda). Para que a telefonia IP tenha qualidade perfeita, sua conexão deverá garantir, no mínimo, 30k de upload e download por canal de voz (recomendação da empresa que oferece o serviço).

Ponto positivo e negativo

O lado bom é que o serviço não exige cadastro e o ruim é que, enquanto a ligação não é iniciada, são exibidas propagandas da empresa, o que é perfeitamente aceitável já que estão oferecendo o serviço gratuitamente. Outro detalhe: os 10 minutos começam a contar a partir do momento em que começa a chamar, e não do efetivo início da conversa.

 
Fonte: Cristine Gleria Vecchi, Superdownloads
Publicado em 09-11-2011

segunda-feira, 7 de novembro de 2011

Desafios do "tsunami de dados"


Lançado pelo Instituto Microsoft Research-FAPESP de Pesquisas em TI, o livro O Quarto Paradigma debate os desafios da eScience, nova área dedicada a lidar com o imenso volume de informações que caracteriza a ciência atual.

Se há alguns anos a falta de dados limitava os avanços da ciência, hoje o problema se inverteu. O desenvolvimento de novas tecnologias de captação de dados, nas mais variadas áreas e escalas, tem gerado um volume tão imenso de informações que o excesso se tornou um gargalo para o avanço científico.


Nesse contexto, cientistas da computação têm se unido a especialistas de diferentes áreas para desenvolver novos conceitos e teorias capazes de lidar com a enxurrada de dados da ciência contemporânea. O resultado é chamado de eScience.

Esse é o tema debatido no livro O Quarto Paradigma – Descobertas científicas na era da eScience, lançado no dia 3 de novembro pelo Instituto Microsoft Research-FAPESP de Pesquisas em TI.

Organizado por Tony Hey, Stewart Tansley, Kristin Tolle – todos da Microsoft Research –, a publicação foi lançada na sede da FAPESP, em evento que contou com a presença do diretor científico da Fundação, Carlos Henrique de Brito Cruz.

Durante o lançamento, Roberto Marcondes Cesar Jr., do Instituto de Matemática e Estatística (IME) da Universidade de São Paulo (USP), apresentou a palestra “eScience no Brasil”. “O Quarto Paradigma: computação intensiva de dados avançando a descoberta científica” foi o tema da palestra de Daniel Fay, diretor de Terra, Energia e Meio Ambiente da MSR.

Brito Cruz destacou o interesse da FAPESP em estimular o desenvolvimento da eScience no Brasil. “A FAPESP está muito conectada a essa ideia, porque muitos dos nossos projetos e programas apresentam essa necessidade de mais capacidade de gerenciar grandes conjuntos de dados. O nosso grande desafio está na ciência por trás dessa capacidade de lidar com grandes volumes de dados”, disse.

Iniciativas como o Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG), o BIOTA-FAPESP e o Programa FAPESP de Pesquisa em Bioenergia (BIOEN) são exemplos de programas que têm grande necessidade de integrar e processar imensos volumes de dados.

Sabemos que a ciência avança quando novos instrumentos são disponibilizados. Por outro lado, os cientistas normalmente não percebem o computador como um novo grande instrumento que revoluciona a ciência. A FAPESP está interessada em ações para que a comunidade científica tome consciência de que há grandes desafios na área de eScience”, disse Brito Cruz.

O livro é uma coleção de 26 ensaios técnicos divididos em quatro seções: “Terra e meio ambiente”, “Saúde e bem-estar”, “Infraestrutura científica” e “Comunicação acadêmica”.

O livro fala da emergência de um novo paradigma para as descobertas científicas. Há milhares de anos, o paradigma vigente era o da ciência experimental, fundamentada na descrição de fenômenos naturais. Há algumas centenas de anos, surgiu o paradigma da ciência teórica, simbolizado pelas leis de Newton. Há algumas décadas, surgiu a ciência computacional, simulando fenômenos complexos. Agora, chegamos ao quarto paradigma, que é o da ciência orientada por dados”, disse Fay.

Com o advento do novo paradigma, segundo ele, houve uma mudança completa na natureza da descoberta científica. Entraram em cena modelos complexos, com amplas escalas espaciais e temporais, que exigem cada vez mais interações multidisciplinares.

Os dados, em quantidade incrível, são provenientes de diferentes fontes e precisam também de abordagem multidisciplinar e, muitas vezes, de tratamento em tempo real. As comunidades científicas também estão mais distribuídas. Tudo isso transformou a maneira como se fazem descobertas”, disse Fay.

A ecologia, uma das áreas altamente afetadas pelos grandes volumes de dados, é um exemplo de como o avanço da ciência, cada vez mais, dependerá da colaboração entre pesquisadores acadêmicos e especialistas em computação.

Vivemos em uma tempestade de sensoriamento remoto, sensores terrestres baratos e acesso a dados na internet. Mas extrair as variáveis que a ciência requer dessa massa de dados heterogêneos continua sendo um problema. É preciso ter conhecimento especializado sobre algoritmos, formatos de arquivos e limpeza de dados, por exemplo, que nem sempre é acessível para o pessoal da área de ecologia”, explicou.

O mesmo ocorre em áreas como medicina e biologia – que se beneficiam de novas tecnologias, por exemplo, em registros de atividade cerebral, ou de sequenciamento de DNA – ou a astronomia e física, à medida que os modernos telescópios capturam terabytes de informação diariamente e o Grande Colisor de Hádrons (LHC) gera petabytes de dados a cada ano.


Instituto Virtual

Segundo Cesar Jr., a comunidade envolvida com eScience no Brasil está crescendo. O país tem 2.167 cursos de sistemas de informação ou engenharia e ciências da computação. Em 2009, houve 45 mil formados nessas áreas e a pós-graduação, entre 2007 e 2009, tinha 32 cursos, mil orientadores, 2.705 mestrandos e 410 doutorandos.

A ciência mudou do paradigma da aquisição de dados para o da análise de dados. Temos diferentes tecnologias que produzem terabytes em diversos campos do conhecimento e, hoje, podemos dizer que essas áreas têm foco na análise de um dilúvio de dados”, disse o membro da Coordenação da Área de Ciência e Engenharia da Computação da FAPESP.

Em 2006, a Sociedade Brasileira de Computação (SBC) organizou um encontro a fim de identificar os problemas-chave e os principais desafios para a área. Isso levou a diferentes propostas para que o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) criasse um programa específico para esse tipo de problema.

Em 2009, realizamos uma série de workshops na FAPESP, reunindo, para discutir essa questão, cientistas de áreas como agricultura, mudanças climáticas, medicina, transcriptômica, games, governo eletrônico e redes sociais. A iniciativa resultou em excelentes colaborações entre grupos de cientistas com problemas semelhantes e originou diversas iniciativas”, disse César Jr.

As chamadas do Instituto Microsoft Research-FAPESP de Pesquisas em TI, segundo ele, têm sido parte importante do conjunto de iniciativas para promover a eScience, assim como a organização da Escola São Paulo de Ciência Avançada em Processamento e Visualização de Imagens Computacionais. Além disso, a FAPESP tem apoiado diversos projetos de pesquisa ligados ao tema.

A comunidade de eScience em São Paulo tem trabalhado com profissionais de diversas áreas e publicado em revistas de várias delas. Isso é indicação de qualidade adquirida pela comunidade para encarar o grande desafio que teremos nos próximos anos”, disse César Jr., que assina o prefácio da edição brasileira do livro.
  • O Quarto Paradigma
    Organizadores: Tony Hey, Stewart Tansley e Kristin Tolle
    Lançamento: 2011
    Preço: R$ 60
    Páginas: 263
    Mais informações: www.ofitexto.com.br 

Por Fábio de Castro, Agência FAPESP
Publicado em 07-11-2011 


 

terça-feira, 25 de outubro de 2011

Cray e governo dos EUA irão construir supercomputador de 20 petaflops

Corrida global pelo computador mais rápido do mundo ganha mais um competidor. Máquina será utilizada para simulações nucleares.

A fabricante de supercomputadores Cray anunciou este mês que venceu um contrato com Laboratório Nacional do Departamento de Energia dos Estados Unidos para construir um sistema capaz de alcançar um desempenho de até 20 petaflops (unidade de medida de processamento de computador). O acordo vale mais de 97 milhões de dólares, de acordo com a empresa. 

O novo sistema, chamado Titan, deve ser completado por volta de 2013. É um grande upgrade do atual supercomputador em uso no Laboratòrio, chamado Jaguar, que também foi construído pela Cray, e que alcança até 2.33 pentaflops. Cada nó computacional no Jaguar possui dois processadores AMD Opteron. O sistema do Titan irá incluir unidades de processamento gráfico (GPUs), assim como CPUs. O projeto envolve remover um dos processadores Opteron em cada nó do Jaguar e substituí-lo por uma GPU da Nvidia. O novo sistema poderá incluir até 18 mil GPUs. 

Vemos isso como mais um passo rumo a um novo tipo de sistema, que será de 100 petaflops” afirmou Sumit Gupta, gerente do setor de Tesla GPU da Nvidia. GPUs têm sido consideradas, em geral, como experimentais na supercomputação, de acordo com Steve Conway, analista do IDC. 

A Oak Ridge afirmou que os pesquisadores irão utilizar o Titan para “aumentar o realismo de simulações nucleares”  e “melhorar o poder das simulações das previsões climáticas”, entre outras coisas. A IBM também está construindo um supercomputador de 20 petaflops, batizado de Sequoia, que deve ser completado até o fim do ano que vem. Hoje, o computador mais rápido do mundo é o japonês “K”, que possui 8 petaflops.


Fonte: Patrick Thibodeau, Computerworld/EUA
Publicado em 25-10-2011

sexta-feira, 21 de outubro de 2011

Windows 8 decreta o fim dos gadgets

Microsoft anuncia a substituição dos mini aplicativos pelos Apps

STRIPE-WINDOWS-8

Com o novo sistema operacional da Microsoft a caminho a empresa lançou recentemente o Windows Developer Preview, uma espécie de Demo do Windows 8 para que desenvolvedores e usuários possam ir se familiarizando com as novidades da atualização.

Uma das novidades no Windows 8 é a ausência dos famosos Gadgets que podiam ser espalhados pelo Desktop no Windows 7. A Microsoft deixou claro seu foco na nova interface Metro através do Windows Developer Preview e aconselha os desenvolvedores a abandonarem a plataforma e se focarem na nova interface Metro. "Com o Windows Developer Preview, os desenvolvedores podem criar uma rica experiência através de apps onde seus clientes se focarão em suas tarefas mais importantes. Os apps são o centro da nova experiência no Windows Developer Preview" informa o site do sistema operacional.

A grande pergunta "onde foram parar os Gadgets?" pode ser respondida facilmente no primeiro contato do usuário com a interface Metro. Lembre do Gadget de tempo por exemplo, ele continua visível a todo instante através da nova interface, a diferença é que agora ele é um app mostrando apenas as informações básicas como o clima na região e a temperatura. Ao acionar o aplicativo você poderá obter as informações aprofundadas como a temperatura em outras regiões e a previsão do tempo para os próximos dias em detalhes.

Exemplo
De um lado o app do clima na nova interface Metro, do outro o antigo Gadget para Desktop

A interface Metro facilitará a acessibilidade do usuário, colocando à sua disposição rapidamente os aplicativos mais usados e as informações de forma organizada. Outra novidade do sistema é a integração nativa com o Twitter, cada usuário poderá deixar sua conta ativa no sistema, podendo compartilhar fotos, vídeos e outras informações sem ter que abrir um browser, ou aplicativo específico da rede social.

Desktop Clássico

Além da interface Metro o Windows 8 também conta com o desktop clássico, seguindo o modelo do Windows 7. Algumas pequenas modificações foram feitas (como o caso dos gadgets), mas ainda assim todos os usuários que estavam habituados às ultimas versões do sistema operacional não terão dificuldade nenhuma de se adaptar à atualização.

Caso você seja um fanático por esses utilitários, não se preocupe. A Microsoft deixou disponíveis os gadgets essenciais para você ativá-los novamente no desktop. Os apps para Windows poderão ser baixados diretamente da Windows Store (que ainda não está em funcionamento). Vale ressaltar que o Windows 8 não é exclusivo para computadores de mesa e estará disponível também em tablets e smartphones. Lembrando que a versão de teste para desenvolvedores do Windows 8 pode ser baixada gratuitamente no Superdownloads.

 

Fonte: Por Wagner Creoruska Junior, Superdownloads
Publicado em 18-10-2011

quinta-feira, 13 de outubro de 2011

Ubuntu 11.10 “Oneiric Ocelot” já está disponível para download

Gratuito, sistema operacional traz interface refinada e melhores serviços online.

Outubro é um mês de alegria para os usuários do Ubuntu, uma das distribuições Linux mais populares da atualidade: é quando os desenvolvedores lançam uma nova versão do sistema operacional, a segunda no ano, após um ciclo de seis meses de desenvolvimento.

Disponível para download a partir de hoje o Ubuntu 11.10 (codinome “Oneiric Ocelot”) traz poucas mudanças “revolucionárias” em relação à versão anterior. Além de atualizações  estruturais (como uma nova versão do Kernel Linux, agora baseado na série 3.0) o sistema tem como principais destaques uma interface mais refinada e fácil de usar e melhorias nos serviços online.

Interface “Unificada”

A interface Unity, que estreeou na versão anterior (11.04), está de volta e foi refinada. Além de melhorias no desempenho e estabilidade a Canonical tornou-a mais “universal”: há duas versões, uma padrão chamada Unity 3D, que usa a GPU (placa 3D) da máquina para acelerar a composição da interface e efeitos especiais (sombras, transparências, etc) e outra chamada Unity 2D, funcionalmente idêntica mas otimizada para máquinas com menor poder de processamento, onde uma GPU não está disponível. O sistema seleciona automaticamente qual delas irá usar.

A forma como os usuários encontram conteúdo foi modificada. Suponha que você quer procurar por um aplicativo: basta clicar no ícone da “Dash” no topo da Dock (na lateral esquerda da tela) e digitar o que você quer. Só que esta busca é “universal”, e além dos aplicativos inclui também documentos, músicas e outros itens.

ubuntu_oneiric_dash-360pxBusca por um aplicativo usando a "lente" apps

Para facilitar as coisas é possível usar “lentes” para filtrar os resultados por tipo: só os aplicativos, só os documentos, só as músicas, etc. Há três lentes padrão (representadas por ícones no rodapé do painel da dash) instaladas: apps, docs e music. Voltando ao nosso exemplo de busca por aplicativo, você pode usar a lente apps para obter resultados mais precisos. E o mais interessante: os resultados incluem não só os aplicativos instalados na máquina, como também os disponíveis no Software Center.

E os desenvolvedores poderão criar novas “lentes” que se integram ao sistema, aumentando os recursos da Dash. Já foram demonstradas lentes que fazem buscas por usuários em redes sociais, ou uma que procura por vídeos no YouTube.

Quem prefere o desktop Gnome (interface padrão das versões mais antigas) não fica de fora: ele está disponível na loja de aplicativos Ubuntu Software Center, como um download gratuito.

Disco grátis

O serviço Ubuntu One, que oferece armazenamento online e sincronia de arquivos ao estilo Dropbox, foi ampliado. Os usuários ganharam mais espaço, e agora são 5 GB gratuitos para você guardar o que quiser “na nuvem”. Os arquivos podem ser acessados a partir de qualquer PC com o Ubuntu, Mac OS X e agora também Windows, além de smartphones Android e aparelhos com o iOS (iPhones, iPods e iPads).

Por US$ 3.99 mensais extras os usuários podem fazer um upgrade para um plano que dá direito a 20 GB de espaço e streaming de músicas armazenadas em seu disco virtual para smartphones Android. O Ubuntu One também se integra à loja de músicas Ubuntu One Music Store (acessível a usuários brasileiros com um cartão de crédito internacional): as músicas que você comprar podem ser enviadas automaticamente para o seu disco virtual.

Apps de montão

A loja de aplicativos Ubuntu Software Center foi completamente reformulada, e agora está mais parecida com lojas consagradas como a App Store da Apple ou o Android Market da Google. Além de descrições e imagens de cada programa, os usuários também podem dar notas e deixar comentários, o que facilita o processo de “descoberta” de novos aplicativos.

Segundo Maurício Pretto, Gerente Geral da Canonical para a América Latina, o Ubuntu Software Center já conta com 36 mil títulos disponíveis. A maioria deles é gratuita, mas também há softwares pagos como os jogos World of Goo e Oil Rush, entre outros títulos.

ubuntu_oneiric_loja-360pxUbuntu Software Center: agora com reviews dos apps, escritos pelos usuários

Nestes casos, a divisão da renda é bastante generosa: o desenvolvedor fica com 80% do valor da venda e a Canonical com 20% (80/20), em contraste ao sistema 70/30 praticado pela Apple e Google. A empresa tem um site, em developer.ubuntu.com, com todas as informações necessárias para que um desenvolvedor possa criar e publicar um aplicativo no Ubuntu Software Center.

Onde baixar?

O Ubuntu 11.10 Oneiric Ocelot é totalmente gratuito e pode ser baixado em www.ubuntu.com. O arquivo .ISO tem 700 MB e deve ser gravado em um CD ou usado para gerar um pendrive de instalação (siga nossas instruções). Além do sistema operacional estão inclusos inúmeros aplicativos, de navegadores web como o Firefox a pacotes de escritório como o LibreOffice.

Também é possível instalar o Ubuntu “lado-a-lado” com o Windows usando uma ferramenta chamada Wubi. Com isso, ao iniciar o computador você poderá escolher qual sistema usar. E se não gostar do Ubuntu, poderá desinstalá-lo usando o Painel de Controle, como se fosse um programa Windows qualquer.

Mais informações sobre o Ubuntu podem ser encontradas no site oficial. Dúvidas na instalação, configuração e uso do sistema podem ser resolvidas com a ajuda dos participantes dos fóruns de discussão internacionais em www.ubuntuforums.org, ou nos fóruns nacionais mantidos pela comunidade Ubuntu-BR em www.ubuntuforum-br.org

O futuro

A próxima versão do Ubuntu será a 12.04, codinome “Precise Pangolin”, que está programada para o mês de Abril do próximo ano. Ela será uma versão LTS, com “suporte a longo prazo”: atualizações de aplicativos e correções de bugs serão disponibilizadas por três anos no desktop, e cinco anos no servidor.

 

Fonte: Rafael Rigues, PCWorld Brasil
Publicado em 13-10-2011

Aprenda a instalar o Linux a partir de um pendrive

Quer experimentar o Linux em um netbook? Use o Unetbootin para criar um “pendrive de instalação” de quase qualquer distribuição disponível atualmente.

Alguns dias atrás publicamos um artigo ensinando a instalar o Windows a partir de um pendrive, algo muito útil para os proprietários de netbooks, já que estas máquinas geralmente não tem um leitor ou gravador de CDs e DVDs. Mas o Windows não é o único sistema operacional que pode ser instalado em um netbook: o Linux também é uma boa alternativa, e há até mesmo versões feitas sob medida para estas máquinas.

Infelizmente, a maioria delas é distribuída na forma de arquivos chamados “imagens ISO” (uma cópia exata de todo o conteúdo de um CD ou DVD em um arquivo só), que devem ser gravados em um CD ou DVD para gerar um disco de instalação. Mas o que fazer se sua máquina não tem um drive óptico?

A solução é o Unetbootin, um utilitário gratuito e de nome estranho que, a partir de uma imagem ISO, é capaz de criar um pendrive de instalação de praticamente qualquer distribuição Linux existente. E você nem precisa baixar a imagem ISO: ele faz isso automaticamente pra você.

Criando o pendrive

O Unetbootin tem versões para Windows, Linux e Mac OS X e seu uso não tem segredo: ele sequer precisa ser instalado, basta dar dois cliques no executável baixado. Na janela do programa há instruções simples de uso e alguns menus. Note que a primeira opção lá no topo da janela, chamada Distribuição, está marcada. Esta é a forma mais fácil de usar o Unetbootin: no menu == Selecione a Distribuição == escolha a distribuição Linux que você deseja instalar. Por exemplo, o Ubuntu. No menu ao lado escolha a versão, por exemplo a 11.04_Live.

unetbootin-360pxUnetbootin: crie um pendrive de instalação de qualquer distribuição Linux

Plugue um pendrive vazio (de pelo menos 2 GB) ao computador e indique qual é a unidade correspondente no menu Unidade no rodapé da janela (por exemplo, F:\. Cuidado para não selecionar nenhum HD externo por engano!). Agora é só clicar em OK e aguardar o download dos arquivos e sua cópia para o pendrive. Imagens ISO de distribuições Linux são arquivos grandes (às vezes ultrapassando os 700 MB), então você precisará de uma boa conexão de banda larga ou um pouco de paciência.

Se você já tem uma imagem ISO de sua distribuição Linux favorita (ou se ela não consta na lista de distribuições), não precisa baixar nada novamente. Na janela do Unetbootin marque Imagem de Disco em vez de Distribuição, selecione a opção ISO no menu ao lado e clique no botão com os "..." para indicar onde está a imagem ISO que você baixou. Novamente indique o pendrive para onde os arquivos serão copiados, clique em OK e aguarde o fim do processo,que deve demorar apenas alguns minutos.

Com o pendrive pronto em mãos, basta reiniciar seu computador, dar boot a partir dele (consulte o manual do seu computador para saber qual o procedimento correto para isto) e seguir os menus na tela. Se o CD de instalação de sua distribuição Linux for um “Live CD”, que permite a execução do sistema a partir do CD sem instalar nada no computador, você também terá esta opção no pendrive. Só lembre-se que nenhuma mudança que você fizer no sistema será salva.

Se você quer instalar o Linux no pendrive e quer que ele mantenha suas modificações (como se ele estivesse instalado em um HD), precisa de uma ferramenta como o Universal USB Installer. Mas esse é assunto para um próximo artigo. Até mais!

Fonte: Rafael Rigues, PCWorld Brasil
Publicado em 08-09-2011

quinta-feira, 6 de outubro de 2011

A nova era da comunicação unificada – Telepresença

Conhecendo a Telepresença

O termo refere-se a uma solução de comunicação de vídeo em alta definição, onde os elementos sonoros, visuais e físicos de um ambiente de reunião são projetados para criar uma experiência Imersiva. A sensação efetiva da Telepresença Imersiva ocorre quando as salas conectadas são idênticas ou quase idênticas em móveis, decoração e equipamentos eletrônicos para garantir a percepção real aos participantes da conexão.

O objetivo da Telepresença é permitir que as pessoas em diferentes locais se comuniquem frente a frente como se estivessem no mesmo ambiente. Trata-se de uma experiência ímpar, com qualidade de comunicação impressionante até mesmo para as pessoas que já estão familiarizadas com a tradicional videoconferência.

A nova era da videoconferência: Telepresença

A Telepresença é uma forma de videoconferência, que abrange diversos cuidados como, iluminação, áudio, posicionamento da câmera até a disposição de participantes no ambiente. Esta nova forma veio para eliminar os problemas
existentes com a tradicional videoconferência, frequentemente usuários queixavam-se de não conseguir ouvir bem as pessoas ou vê-las. Porém essas dificuldades muitas vezes eram geradas não pelo equipamento de videoconferência ou rede, mas devido a má iluminação do ambiente, layout da sala e detalhes que repercutem diretamente na qualidade da comunicação de vídeo.

Comparativamente a Telepresença oferece mais qualidade por se tratar de uma solução completa, e é muito recomendada para empresas onde a videoconferência tornou-se uma ferramenta competitiva para execução dos negócios.

Como viabilizar um projeto de Telepresença

O investimento para adquirir as soluções de Telepresença é superior a videoconferência e as empresas encontram dificuldades para aprovar o valor total do projeto. Uma alternativa que viabiliza a utilização desta tecnologia é adquirir a solução através do modelo outsourcing, que possibilita a empresa diluir o custo da ferramenta em pagamentos mensais, facilitando a inclusão no budget.

Além do benefício sobre o custo, ao optar pelo modelo de serviço a empresa terá a vantagem contar com equipamentos de alta tecnologia, sem se preocupar com a defasagem tecnológica, já que os mesmos podem ser trocados na renovação do contrato, e toda manutenção é realizada pelo
fornecedor, eliminando assim, o acúmulo de tarefas para equipe de TI.

Outro fator decisivo no processo de aprovação, é o impacto imediato na redução de custos operacionais (principalmente viagens). Dependendo do caso essa redução pode ser tão significativa que pode pagar as parcelas mensais do
serviço.

Telepresença oferece excelente qualidade em uma fantástica experiência, impressionando os usuários... Mas?

O nível de qualidade atingido pela Telepresença exige alguns fatores para ser implementado assim como qualquer outra nova geração de tecnologia. Os obstáculos que algumas organizações podem enfrentar são:

  1. Interoperabilidade: muitas empresas já têm feito investimentos significativos em equipamentos de “videoconferência tradicional” e alguns produtores das soluções não oferecem interoperabilidade nos equipamentos, implicando em falta de zcomunicação entre a nova solução de Telepresença com os equipamentos antigos.
  2. Tamanho da Banda: para se realizar uma conexão com qualidade HD é necessária que a empresa disponibilize link full de no mínimo 512 kbps em cada localidade participante da conferência.
  3. Investimento: as salas de Telepresença são concebidas e integradas de forma a proporcionar uma experiência de alta qualidade. Toda esta infraestrutura implica em investimentos maiores das empresas que aderem a nova tecnologia.
  4. Recursos: para gerenciar a solução de Telepresença é
    necessária uma qualificação técnica superior, que a maioria das organizações não possui ou não estão dispostas a dedicar esforço.
    Para atender a demanda se recursos desta nova solução tecnológica é oferecido o serviço de suporte denominado VNOC.

Os quatro fatores para avaliar corretamente os prestadores de servicos VNOC

O VNOC ¡§Video Network Operating Center¡¨ e um conjunto de servicos personalizados especificamente para atender as necessidades unicas das salas de Telepresenca. Esses servicos VNOC sao criticos para a experiencia de Telepresenca por que:

  • A experiencia completa de Telepresenca deve sempre satisfazer os usuarios finais sob as mais exigentes condicoes.
  • A aprovacao do investimento e sua produtividade estao diretamente relacionados a experiencia diaria da solucao.
  • Os beneficios das solucoes de Telepresenca somente podem ser realizados plenamente se contarem com o expertise do Telepresence VNOC Service Provider.
  • O servico e apoio correto podem fazer o link entre a Telepresenca e videoconferencia sem dificuldades.

O prestador do servico VNOC nao ira apenas instalar a sala e
equipamentos. Ele tera de preencher os requisitos abaixo para estar capacitado a oferecer este tipo de servico especializado.

telepresenca-1

O que esperar dos prestadores de serviço VNOC

telepresenca-2

Monitoramento Pró-Ativo: O monitoramento 24/365 pró-ativo do equipamento de videoconferência e conexões deve ocorrer para garantir o equipamento funcional minuto a minuto. A combinação avançada da tecnologia de infraestrutura deve estar em todos os momentos e procedimentos em vigor.

Programação & Gestão: Um número totalmente livre, serviço convergente e uma ferramenta web de programação do portal para a comunidade de usuários que deve ser inclusa.

Lançar & Acompanhar: Pode ser manuseado por quem gerencia as chamadas e faz as conexões entre todas as salas de Telepresença em reuniões, tanto ponto a ponto quanto multiponto. O VNOC deve ser capaz de monitorar os
níveis de conectividade digital durante as sessões e assegurar a experiência de alta qualidade para cada uma das salas participantes.

Suporte Help Desk: Os usuários devem ter um único ponto técnico para as soluções de Telepresença que garanta a alta qualidade durante a experiência, sem interrupções nas chamadas. Seu fornecedor deve ser capaz de interagir e
coordenar com fornecedores de hardware, redes e integradores para reparar ou substituir quaisquer peças, danos na rede, ou resolver problemas de integração entre salas.

Relatório de Desempenho: Fornecer métricas-chaves em uma base mensal para identificar as áreas de sucesso, bem como áreas que necessitam de melhoria. O relatório deverá incluir a sala de Telepresença, a rede e os níveis de serviço de apoio e ser detalhado nos níveis de serviço da sala, disponibilidade, número de conferências realizadas, total de horas utilizadas, a média de tempo para responder e corrigir quaisquer problemas técnicos, juntamente com a causa raiz da analise e plano de ação corretivo, quando aplicável.

Treinamento: Necessário para garantir a correta utilização e adoção do sistema de Telepresença. Esse treinamento não é só importante para que os usuários se sintam confortáveis usando a tecnologia, mas também para entender o valor que a tecnologia traz as atividades comerciais do dia-a-dia. Usando o sistema de Telepresença para ajudar na melhoria da comunicação, produtividade e ter acesso aos especialistas no assunto, quando estes forem necessários.

Interoperabilidade: Para garantir que os sistemas de Telepresença podem se conectar com outras salas e empresas fora da rede privada. Certifique-se que o prestador de serviço VNOC tem experiência em avaliação, testes de comunicação com equipamentos de vídeo, confiabilidade, interoperabilidade entre fabricantes e acesso ao intercâmbio de serviços de comunicação com os ambientes públicos e privados de forma segura.

Considerações Finais

O futuro da Telepresença parece promissor, principalmente quanto se olha para questões ambientais (redução de emissões de CO₂) e econômicas (a tecnologia como serviço mensal) que exigem a busca por formas mais eficazes de comunicação, de como ser mais criativo e produtivo. A Telepresença está se aproximando deste perfil na aplicação do mix de comunicação.

Como acontece com qualquer ferramenta de comunicação a Telepresença é melhor suportada quando há um experiente prestador de serviços gerenciando toda a complexidade da solução e disponibilizando a utilização simples aos usuários no dia-a-dia.

Estamos indo em direção a uma sociedade visual que é infinita. Seja através da comunicação entre os executivos de negócios do outro lado do mundo em tarefas importantes, como dos cirurgiões fornecendo orientação para uma sala de cirurgia em outro país, ou aumentando recursos mais talentosos e especializados nas fronteiras para interagir com seus mais valiosos clientes, a nova era das comunicações está aqui e já não é apenas “agradável para ter”. A decisão final e mais importante é escolher a solução certa para suas necessidades globais e o parceiro de serviço preparado que
garanta o funcionamento adequado desta ferramenta.

Fonte: White Paper – NETGLOBE, em NBusiness/NowDigital
Divulgado em 06-10-2011

sábado, 1 de outubro de 2011

Microsoft aponta Chrome como malware e bloqueia navegador.

 

Uma atualização aparentemente liberada na madrugada desta sexta-feira (30/9) pela Microsoft para seu antivírus Security Essentials tem feito com que o sistema acuse a existência de vírus no navegador Chrome, da Google.

Segundo o Business Insider, se o usuário escolher a opção "Remover", o computador será reiniciado e o Google Chrome não funcionará mais.

O problema de falso positivo foi reconhecido pela Microsoft nesta sexta-feira. Em nota publicada em seu portal de segurança, a empresa afirma que "em 30 de setembro de 2011, foi identificada uma detecção incorreta para o PWS:Win32/Zbot".

"Em 30 de setembro de 2011, a Microsoft liberou uma atualização que corrige a questão. As versões com assinatura 1.113.672.0 e mais atuais incluem a atualização", completa a nota, sem mencionar o Chrome.

Segundo a Microsoft, o PWS:Win32/Zbot é um trojan que rouba senhas e monitora a visita em certos sites da web, além de permitir o acesso ao sistema por brechas conhecidas como porta dos fundos (backdoors).

Fonte: Redação do IDG Now!
Publicado em 30-09-2011

quinta-feira, 22 de setembro de 2011

Acelere a instalação do Windows 7 integrando um Service Pack

 

Veja como criar um instalador personalizado do Windows contendo as atualizações mais recentes e economize tempo na hora de formatar o PC.

 

Usuários de PCs sabem que, na hora de formatar a máquina e começar do zero, a instalação do Windows é apenas uma parte (relativamente rápida) do processo. É o passo seguinte, o download e instalação de todas as atualizações disponíveis, que geralmente consome a maior parte do tempo, podendo demorar horas dependendo da quantidade de atualizações e velocidade da sua conexão.

Mas dá para ser mais eficiente: neste artigo iremos mostrar como integrar o mais recente pacote de atualizações do Windows 7 (o Service Pack 1) ao instalador do sistema. Assim todo o processo será feito de uma vez só, e você ganha tempo.

 

Slipstreaming

O processo é baseado em uma técnica conhecida como Slipstreaming, e consiste em integrar as atualizações e service packs aos arquivos de instalação do sistema usando algumas ferramentas do próprio sistema operacional.

A técnica era fácil de executar no Windows XP e 2000, mas o Windows Vista e Windows 7 usam um novo processo de instalação, baseado em uma imagem de disco, que torna o processo antigo obsoleto. Para modificar uma imagem de instalação do Windows 7 é necessário extraí-la, descompactá-la, incorporar as atualizações e recriar o arquivo.

Embora a Microsoft ofereça ferramentas corporativas que ajudam os departamentos de TI a criar imagens de instalação do Windows 7 personalizadas, o processo para os usuários finais é muito mais complexo. Por sorte há alguns utilitários gratuitos que automatizam boa parte do processo, tornando muito fácil criar um disco de instalação do Windows 7 com o mais recente “service pack” com atualizações já integrado.

E além de integrar o Service Pack 1 ao instalador do Windows 7, vamos criar um pendrive de instalação, que torna o processo muito mais rápido do que seria a partir de um DVD. Com um instalador atualizado e um pendrive rápido, você poderá reinstalar o Windows 7 em questão de minutos.

 

Atualizando o instalador

Vamos começar juntando as ferramentas necessárias: um pendrive de 4 GB ou mais, um disco de instalação do Windows 7, o instalador do Service Pack 1 e dois utilitários gratuitos. O prmeiro é o RT Se7en Lite, que fará o trabalho de modificar os arquivos de instalação do sistema, e o segundo é o WinToFlash, que irá nos ajudar a criar o pendrive de instalação.

Recomendo que você use um pendrive com mais de 4 GB, pois assim além do instalador do Windows você terá espaço para todos os drivers necessários para seu computador, além dos instaladores de seus aplicativos favoritos. Ter tudo isso em um mesmo local é outra forma de economizar tempo.

Note que é necessário combinar as versões do Windows 7 e do Service Pack 1. Um DVD de instalação do Windows 7 64-Bit exige o uso da versão 64-Bit do SP1, e não dá para misturar as coisas (sistema de 64-Bit com Service Pack de 32-Bit, e vice-versa). Além disso, seu PC precisa ter pelo menos 4 GB de espaço em disco livre.

Baixe a versão Beta 2.6.0 (lá no rodapé da página de downloads) do RT Se7en Lite e instale. Se possível desabilite temporariamente seu anti-vírus, já que ele pode interferir no processo de “slipstreaming”, deixando-o mais lento.

Crie uma pasta no seu PC com um nome qualquer (ex: Windows7) e copie para dentro dela todos os arquivos do DVD de instalação. Depois que a cópia terminar abra o RT Se7en Lite, clique no botão Select OS Path na janela principal e indique a pasta que contém os arquivos que você acabou de copiar. Uma nova janela irá surgir com uma lista de versões do Windows 7: selecione a correpondente ao seu DVD. Nessa mesma janela marque a opção Slipstream Service Pack e clique em OK.

rt7lite-300pxRT Se7en Lite: integre os Service Packs ao processo de instalação do Windows

Uma nova janela com opções de Slipstreaming irá surgir. Clique no botão Browse no topo da janela e selecione o instalador do Windows 7 Service Pack 1 que você baixou anteriormente (windows6.1-KB976932-X64.exe, para sistemas de 64-Bit, ou windows6.1-KB976932-X86.exe, para sistemas de 32-Bit). Clique em Start.

O RT Se7en Lite irá começar a integrar o Service Pack 1 aos arquivos de instalação do Windows 7. O processo pode levar um bom tempo, especialmente em máquinas mais lentas. Em uma máquina de testes com processador quad-core e 8 GB de RAM, demorou cerca de 20 minutos. Em um PC mais modesto, com um processador Core 2 Duo e 4 GB de RAM, levou mais de uma hora.

Quando o RT Se7en Lite reportar que a operação foi concluída com sucesso, clique no botão Exit e feche o programa. A pasta para onde você copiou o conteúdo do DVD do Windows 7 agora contém um instalador atualizado, já com o Service Pack 1 integrado. Só falta copiar tudo isso para um pendrive.

 

Criando o pendrive

Para criar o pendrive de instalação basta instalar o Novicorp WinToFlash (gratuito para uso pessoal) e seguir os mesmos passos que detalhamos em um outro artigo que publicamos recentemente, chamado “Aprenda a instalar o Windows a partir de um pendrive”. Só há uma pequena diferença: na hora de indicar onde estão os arquivos de instalação do sistema (opção Windows files path: no Windows Setup Transfer Wizard) aponte para a pasta em seu HD com o instalador modificado, em vez de indicar o DVD original do Windows.

 

Instalando!

Para instalar o Windows basta reiniciar o PC a partir de seu novo pendrive (consulte o manual de seu computador para saber como). O instalador do Windows 7 irá surgir na tela, como se você estivesse usando o DVD original, com a diferença de que todo o processo será mais rápido.

Quanto tempo dá pra economizar? Em uma de nossas máquinas foram necessários apenas 6 minutos e 35 segundos para ir do início ao fim da instalação. Usando um DVD original do Windows o mesmo processo levou 14 minutos e 30 segundos, e isso não leva em conta o tempo necessário para baixar e instalar o Service Pack 1, que poderá chegar a várias horas, dependendo de sua conexão à internet.

 

Fonte: Marco Chiappetta, PCWorld EUA e Rafael Rigues, PCWorld Brasil
Publicado em: 22-09-2011

sábado, 10 de setembro de 2011

Melhore o sinal do seu Wi-Fi com latas de cerveja

 

Gambiarra é fácil de ser feita e pode melhorar sua conexão com a internet.

Que tal combinar uma boa cerveja com a internet?

Calma! Não estamos falando para você encher a cara enquanto navega, mas em melhorar o sinal do Wi-Fi utilizando a embalagem da bebida. Ao menos essa é a dica do wikiHow, que ensina a construir uma “antena parabólica caseira” para aumentar a recepção do modem.

Para isso, além do modem com sinal Wi-Fi, você precisa de uma lata de cerveja, uma tesoura, um estilete e uma massinha colante, como o durepoxi. Você terá um rebatedor de sinal. Ao invés do sinal ficar solto dentro de casa você pode direcioná-lo.

Após lavar o objeto muito bem e retirar o anel, corte fora as extremidades da embalagem com o estilete, deixando apenas um pedaço do metal do lado em que você bebe, para que você utilize essa parte como base da gambiarra.

Em seguida, faça um corte vertical na lata até chegar na ponta que você deixou intacta, sem tirá-la. Abra a embalagem e deixe-a intacta na base com a massa colante. Encaixe o objeto no modem através do mesmo buraco que você utiliza para beber a cerveja. Ao final da atividade, ele deve estar igual ao da imagem.

O processo é extremamente simples e explicado em apenas sete ilustrações, que você confere na galeria abaixo:

wifi2wifi3wifi4wifi5wifi6wifi7wifi8

 

Fonte: Anderson Couto, Prosissional Multimidia Digital
Acessado em 10-09-2011

domingo, 4 de setembro de 2011

Crie seu pendrive de boot

 

Seu computador não tem drive de CD/DVD? Não se desespere! Saiba como utilizar o pen drive para dar boot na máquina

 

Com a redução dos preços dos notebooks e a popularização dos netbooks, muitos usuários ficam perdidos quando surge algum problema com o sistema operacional e precisam inicializar o computador. Isso porque, a maior parte dos usuários se acostumou a utilizar o disquete (na época do Windows 98 que contava com uma opção que criava um disquete de boot) ou, mais atualmente, do CD/DVD-ROM, para dar boot na máquina. Mas, se o seu computador não tem drive de CD/DVD, nem muito menos de disquete, como fazer para inicializar o sistema operacional quando tiver problemas?

Utilize o pendrive! Para ajudá-lo, criamos este tutorial. Apesar de conter alguns comandos que devem ser inseridos no prompt de comando (o que pode assustar aos usuários menos familiarizados), é muito simples de fazer. Basta seguir, passo a passo, as nossas dicas.

boot_usbUse o USB para inicializar seu sistema em caso de problemas

Um detalhe importante. Testamos esse tutorial nas versões do Windows Vista e 7 e funcionou perfeitamente mas, atenção, verifique se a sua máquina tem a opção de configurar o dispositivo USB na BIOS - normalmente os computadores mais novos permitem. Para entrar na BIOS da sua máquina, reinicie o computador e quando ele estiver reinicializando, pressione a tecla "Delete" ou "F2" do teclado (cada computador é uma tecla diferente).

Você precisará do DVD de instalação do Windows e de um pendrive com 4 GB. Atenção: transfira o conteúdo desse dispositivo pois todos os dados serão perdidos.

 

 

Passo a passo

No Windows Explorer, clique com o botão direito do mouse no drive correspondendo ao pendrive e selecione a opção Formatar. Na janela que surgir, em "Sistemas de arquivos", selecione "NTFS" e clicar em Iniciar. Será exibida uma mensagem indicando que todos os arquivos serão apagados.

Clique em OK e aguarde alguns minutos até que o processo seja concluído.

boot1Formatar o pendrive é o começo do processo

Em seguida, acesse o prompt de comando na função de administrador. Para isso, acesse "Iniciar", "Acessórios", e clique com o botão direito do mouse em "Prompt de Comando", selecionando, em seguida, a opção "Executar como administrador" e siga os passo a seguir:

  • Insira o CD do Windows (Vista ou 7) no drive. Vá até o Meu Computador, e veja quais letras que foram atribuídas ao drive e ao pendrive. No prompt de comando digite os seguintes comandos. Substitua a palavra "drive:" e "pendrive:", pelas letras correspondentes (veja a imagem).
  • Digite DRIVE: e tecle Enter;
  • Digite CD BOOT e tecle Enter;
  • Digite BOOTSECT /nt60 PENDRIVE:

boot2Crie o seu pendrive de boot usando o Prompt de Comando

Agora, basta inserir no pendrive os arquivos do CD de instalação do Windows e configurar a BIOS da sua máquina para que faça o boot pelo dispositivo USB (pendrive).

boot3Finalizando, configure a BIOS da sua máquina para fazer o boot via USB

Fonte: logo.superdownloads.365.70

 

 

Autor: Cristine Gleria Vecchi
Publicado em 01-09-2011

sexta-feira, 2 de setembro de 2011

Faça seu notebook “hibernar” depois de “dormir”

 

Reduza o consumo de energia quando o micro não está em uso, sem correr o risco de perder o que você estava fazendo quando parou.

 

Imagine que você precise deixar de usar seu notebook por algumas horas, para participar de um reunião por exemplo, mas pretende voltar a usá-lo mais tarde. Você não precisa deixá-lo ligado o tempo todo (o que consome energia), nem desligá-lo para religar mais tarde, o que exige tempo para o boot, reabrir os aplicativos e documentos que você estava usando, etc.

Os portáteis atuais entram automaticamente em um modo chamado “Sleep” (Suspender no Windows Vista, Standby no XP) depois de alguns minutos de inatividade ou quando a tampa é fechada, que reduz o consumo de energia mas permite retomar rapidamente o trabalho assim que ela é aberta. Popularmente isso é conhecido como “colocar o notebook para dormir”. É possível economizar ainda mais energia fazendo a máquina passar de Suspender para Hibernar após um período maior de inatividade.

Ambos os modos economizam energia, mas funcionam de forma diferente. Enquanto “dorme” o micro ainda está ligado, já que precisa de energia para manter o sistema, os aplicativos em execução e arquivos abertos na RAM. Mas quando um PC Hiberna, ele copia todo o conteúdo da RAM para um arquivo no HD e se desliga completamente.

A hibernação economiza mais energia (o consumo é zero), mas entrar e sair dela é mais demorado. É possível suspender e retomar o uso de um PC quase que instantâneamente, mas ele pode levar até um minuto para hibernar e outro para “acordar”.

Para ter o melhor equilíbrio entre economia de energia e conveniência, você pode unir as duas técnicas. Eu configurei meu PC para “dormir” após 20 minutos de inatividade, e para hibernar após 180 minutos. Isso quando plugado à tomada: na bateria os tempos são de 5 e 90 minutos, respectivamente.

opcoesenergia-360px

Para fazer o mesmo no Vista ou Windows 7 clique no Menu Iniciar, digite energia no campo de busca e selecione Opções de Energia. Na janela que surge, clique em Escolher tempo para desligar o vídeo na lista de opções à esquerda. Clique no link Alterar configurações de energia avançadas. Clique na seção Suspender e altere os tempos em Suspender depois de e Hibernar após de acordo com sua preferência. Clique em Aplicar para que as mudanças surtam efeito.

Pronto, agora seu PC terá bons sonhos, sem consumir energia desnecessariamente.

Fonte: Lincoln Spector, PCWorld EUA
Publicado em 01-09-2011

quinta-feira, 25 de agosto de 2011

Windows XP faz 10 anos: já passou da hora de abandoná-lo

De acordo com pesquisadores, arquitetura de segurança do sistema da Microsoft ficou ultrapassada após tanto tempo; analistas pedem que usuários desinstalem software.

 

Há exatos 10 anos a Microsoft começou a vender o Windows XP, e hoje o sistema ainda pode ser encontrado em quase metade dos computadores do mundo, de acordo com a empresa StatCounter.

Esse fato está mais um testamento da estratégia de parceria da Microsoft com as fabricantes de PCs do que algo particularmente atraente sobre a tecnologia do software, obviamente, mas não deixa de ser um feito e tanto.

Neste 10º aniversário do XP, no entanto, o chefe de pesquisas da empresa de segurança F-Secure, Mikko Hypponen, tem um pedido a fazer: “Faça uma boa ação hoje. Desinstale o XP.”

“O mais inseguro, de longe”

Levando em conta todos os sistemas operacionais atuais para computadores – incluindo o Windows XP,Vista, 7, Linux e Mac OS X – “o Windows XP tem a segurança mais fraca, de longe”, escreveu Hypponen em um post no blog da F-Secure.

“Dez anos é uma eternidade nesse negócio”, completa o pesquisador. “Por isso não é nenhuma surpresa que a arquitetura de segurança do XP esteja ultrapassada.”

No entanto, dado a persistente alta participação do sistema no mercado, “os invasores seriam estúpidos de gastar tempo e dinheiro direcionando ataques a qualquer outro sistema operacional”, sugere Hypponen. “Os invasores nunca tiveram uma vida tão boa. O alvo mais fácil também é o mais comum.”

Não demorará muito até que o Windows 7 ultrapasse o XP no mercado, diz Hypponen, e quando isso acontecer, os criadores de malware com certeza vão “começar a olhar ao redor” buscando diferentes plataformas para atacar.

Mas, enquanto isso, a situação atual “não pode ser mudada de forma rápida o bastante”, conclui.

 

Fonte: Katherine Noyes, PC World / EUA
Publicado em: 25-08-2011

quinta-feira, 18 de agosto de 2011

iPhone e iPad podem ganhar sistema de projeção "interativo"

Aparelhos da Apple seriam capazes de criar áreas de trabalho virtuais, e manipular dados no estilo do filme "Minority Report"; registro de patente já foi feito pela Apple.

Seu iPhone, iPad ou qualquer outro dispositivo iOS que seja lançado no futuro podem ser capazes, no futuro, de trabalhar em conjunto para criar um espaço de trabalho compartilhado virtual, exibido em uma parede, porta ou qualquer outr superfície  lisa.

A U.S Patent and Trademark Office (ou Escritório de Patentes e Marcas Registradas dos EUA, em tradução livre) publicou nesta quinta-feira (12/8) um novo pedido de patente da Apple que sugere que a companhia pode integrar mini-projetores em futuros dispositivos iOS, como o iPhone e o iPad.

E esses projetos não servirão apenas para exibir uma apresentação de slides; em vez disso, eles criarão um espaço virtual que permitirá aos usuários compartilharem arquivos através dos aparelhos e até utilizar gestos no estilo  do filme "Minority Report", estrelado por Tom Cruise, para manipular os conteúdos. A patente foi descoberta pelo site Patently Apple.

O documento descreve como seria utilizar os aparelhos ou um Mac conectado a um projetor externo para criar dois displays separados; outra possibilidade seria combinar os aparelhos para criar uma projeção ainda maior.

A Apple chama esse método de “área de trabalho compartilhada” e, em ambas configurações, os aparelhos de projeção podem compartilhar conteúdos diretamente a partir de transferências de um dispositivo para outro ou em  rede compartilhada.

projetorapple01

Patente indica que Macs e dispositivos iOS poderão projetar áreas de trabalho virtuais

Este novo sistema pode também utilizar câmeras para detectar o movimento de sombras e silhuetas na frente dessa tela, o que permitiria, em tese, que os usuário pudessem manipular conteúdos exibidos na parede, como arrastar uma imagem de um display para o outro ou utilizar o movimento de pinça para reduzir o tamanho de uma imagem.

A área de trabalho do iOS é uma idéia interessante, no entanto, muitas companhias patenteiam ideias que nunca resultam em um produto final, logo, ainda não é certo se esse espaço de trabalho compartilhado verá a luz do dia.

Apesar disso, esse não é o primeiro rumor da Apple em relação a projetores: em dezembro, havia especulações de que o iPhone 5 teria um projetor compacto e, em abril, o site 9-to-5 Mac escreveu sobre uma patente de um sistema de projeção a laser que poderia ser integrado aos Macs. Em 2009, o Pattenly Apple também exibiu um documento de registro de propriedade intelectual do que seria um iPhone com um projetor.

Para esquentar as especulações a respeito dos planos da Apple com projeções, o MacRumors descobriu recentemente que a Apple adquiriu o domínio applepico.com.

 

Fonte: Macworld/Reino Unido
Publicado em:
15-08-2011

sexta-feira, 12 de agosto de 2011

Mais 5 erros comuns durante o upgrade de um PC

Atualizar o hardware de seu PC é fácil, mas há uma forma certa e uma forma errada de fazer as coisas. Aqui estão 5 upgrades onde a maioria das pessoas erra, e dicas de como acertar.

 

PCs estão ficando mais poderosos e fáceis de usar, mas os desafios relacionados a um upgrade se mantiveram praticamente os mesmos. Para um novato, uma simples troca de HD pode parecer algo amedrontador. Já para o usuário experiente a troca em si pode ser fácil, mas é ainda mais fácil ignorar fatores que poderiam simplificar todo o processo e proteger melhor o hardware e os dados armazenados nele.

No artigo “5 upgrades do PC onde quase tudo mundo erra” eu explorei alguns dos erros mais comuns durante um upgrade. Neste, iremos observar os detalhes que são mais frequentemente ignorados em tarefas como a transferência de arquivos para um novo HD, instalação de uma placa de vídeo, atualização da BIOS do PC, configuração de uma rede Wi-Fi e como impedir que a validação do Windows arruine um upgrade que de outra forma seria um sucesso.

 

Transfira dados do jeito fácil

No artigo anterior eu mencionei os erros mais comuns cometidos durante uma troca de HD. O que não mencionei foi a forma mais comum de perder tempo no processo: a transferência dos dados. Copiar os arquivos de um HD velho para um novo pode levar horas e horas mesmo sob condições ideais, e escolher o método errado pode aumentar o tempo necessário para alguns dias.

Fabricantes como a Seagate e a Western Digital incluem com seus discos ferramentas que facilitam o processo. No caso da Seagate ela se chama DiscWizard: você a instala no PC antes de remover o HD “velho”, e pluga o novo ao micro usando uma gaveta USB ou um adaptador SATA/IDE para USB (mais barato).

Rode o programa, e quando o processo estiver completo simplesmente desligue o PC e troque os discos. O software Acronis True Image, que acompanha os HDs da Western Digital, funciona basicamente da mesma forma.

Se você vai usar um HD que não vem com um utilitário de clonagem de brinde, pode comprar uma cópia do Acronis True Image por US$ 30, com entrega via download. Ele funciona com HDs de qualquer fabricante.

 

Não se esqueça da BIOS

Conheço vários usuários de PCs que estão constantemente trocando processadores, memória e placas de vídeo, mas que raramente dão atenção a um dos componentes mais fundamentais do PC: a BIOS. Ela é o software básico (tecnicamente o “firmware”) que diz ao computador como inicializar o hardware, procurar por HDs, verificar a memória e por aí vai. Assim como em outros componentes, os fabricantes frequentemente atualizam a BIOS de seus produtos para adicionar suporte a novos padrões, novos recursos ou corrigir bugs.

Se você está usando o mesmo PC (ou a mesma placa-mãe) já há alguns anos provavelmente passou da hora de fazer uma atualização da BIOS. Isto é especialmente importante para quem está adicionando ao computador HDs de alto desempenho, placas de vídeo topo de linha ou o mais recente processador. Mas uma BIOS atualizada pode reduzir o tempo de boot do PC mesmo sem qualquer outro upgrade.

Para saber se a BIOS está atualizada, verifique o número da versão que aparece brevemente (por apenas alguns segundos) quando o computador liga, ou execute o utilitário “Informações do sistema” (clique em Iniciar, digite msinfo32.exe no campo de pesquisa e tecle Enter) e observe o item Versão/data do BIOS em “Resumo do sistema”.

Sabendo a versão da BIOS, visite o site do fabricante de seu PC ou placa-mãe e procure na seção de “suporte” uma atualização. Elas geralmente são organizadas por data, então fica fácil saber se há uma para você ou não. Só certifique-se de que você está na lista para a placa-mãe ou PC certos, já que instalar uma BIOS errada em um PC pode causar uma falha catastrófica (se bem que, na maioria dos casos, o software simplesmente irá avisar que seu hardware é incompatível e se recusar a prosseguir).

O processo de atualização varia de acordo com o fabricante. Alguns tem um utilitário que roda dentro do Windows, em outro é necessário copiar os arquivos para um pendrive ou CD e iniciar o PC a partir deles. Em qualquer caso, NUNCA desligue o computador ou interrompa o processo antes ele ser concluído, já que isso pode danificar a BIOS e impedir que seu PC funcione corretamente.

 

Evite incidentes com a placa de vídeo

Com exceção do processador, as placas de vídeo são o componente mais suscetível a erro humano. Isso acontece porque a tecnologia muda rapidamente à medida em que fabricantes desenvolvem novas formas de satisfazer a demanda de gamers cada vez mais exigentes.

Um upgrade da placa de vídeo pode dar errado de basicamente quatro formas:

  • Barramento errado
  • Conector de força errado
  • Tamanho errado
  • Sistema operacional errado

Se voce está procurando uma placa de vídeo nova. certifique-se de que seu PC irá suportá-la em todos os quatro quesitos. O primeiro é o barramento: PCs mais antigos usam uma interface AGP para conexão de placas de vídeo, em vez do moderno barramento PCI-Express. Algumas placas estão disponíveis em ambas as versões, então olhe com atenção a caixa ou descrição do produto antes de comprar.

PCs mais velhos ou modelos de baixo custo tem fontes de alimentação fracas, que são incapazes de atender à demanda das atuais placas de vídeo de alto desempenho. Observe o consumo de energia e o tipo de conector usado antes de comprar, e certifique-se de que a fonte de alimentação de seu PC dá conta do recado. Se não, você precisará trocá-la. Nem pense em “dar um jeitinho” e instalar a placa mesmo com uma fonte fraca: você irá queimar a fonte, e se der azar pode levar junto algum outro componente do PC.

Outro problema comum: certifique-se de que a placa cabe no gabinete do seu PC antes de comprá-la. Usuários de PCs com gabinetes “slim” costumam ser vítimas desse erro.

Por fim, verifique se a placa tem drivers compatíveis com o sistema operacional de seu PC. A Microsoft e os fabricantes de placas lançam constantemente novas versões de seus produtos, mas nem sempre estão em sincronia e as placas mais recentes podem simplesmente não ter drivers para versões mais antigas do Windows, como o XP.

 

Se você tiver que reativar o Windows...

Depois de um upgrade de hardware o Windows pode pedir uma reativação da licença junto à Microsoft. É a forma que a empresa encontrou para reduzir a pirataria e - embora seja um incômodo para quem faz upgrades frequentes - não deve ser um problema na maioria dos casos.

Na ativação inicial toda licença do Windows é registrada em um banco de dados da Microsoft (e em seu PC) junto com informações básicas sobre a máquina como tipo da placa-mãe, do processador e da placa de vídeo, entre outros, além dos números de série de alguns componentes e outros dados. Isto é uma espécie de “impressão digital” de seu PC, e o Windows a compara à configuração atual do hardware a cada vez que você liga o computador. Se certos elementos (ou muitos deles) mudarem, o Windows irá pedir para você reativar a licença.

Na maioria dos casos, o processo consiste em nada mais que clicar no botão “Ativar agora” na tela do PC. Talvez você tenha de redigitar o código de licença que veio com sua cópia do Windows. Mas se você trocar um componente crucial, como a placa-mãe, pode ser necessário telefonar para a Microsoft para reativar o sistema. Não se preocupe: basta explicar o que foi feito e os atendentes resolverão o problema rapidinho.

 

Evite erros comuns na migração do Wi-Fi

Ao longo da última década redes sem-fio domésticas passaram de tecnologia de ponta a necessidade básica em todo lar moderno. Mas alguns dos erros mais comuns nos acompanham desde o começo.

O pior deles é instalar um roteador e começar a usá-lo sem mudar uma única configuração sequer, incluindo a senha da interface de administração. Isto é assustador, já que deixa a rede aberta para que possa ser controlada por qualquer um que estiver ao seu alcance.

Um erro ainda mais comum é não atualizar o firmware do roteador. A maioria dos modelos inclui um botão na interface para procurar e instalar automaticamente novas versões do firmware, e ainda assim poucas pessoas o usam. As atualizações são importantes, pois além de melhorias de estabilidade e desempenho, podem trazer correções para falhas de segurança que deixam a rede exposta ou vulnerável a ataques de terceiros.

Na maioria dos casos o upgrade consiste em clicar no botão e esperar alguns minutos enquanto o firmware é baixado e instalado. Deixe o roteador sozinho durante esse processo, e depois de um rápido “reboot” ele está pronto para uso.

Fonte: Robert Strohmeyer, PCWorld EUA
Publicado em: 12-08-2011