sexta-feira, 25 de janeiro de 2013

COMPUTERWORLD: Os 10 melhores provedores de armazenamento na nuvem, segundo o Gartner


Aproximadamente 19% das organizações ao redor do mundo estão utilizando a computação na nuvem para produção de aplicações, enquanto outros 20% contratam serviços públicos de armazenamento na cloud, segundo estudo do Gartner.

Os resultados mostram que a nuvem oferece grandes oportunidades de negócios, especialmente para serviços de armazenamento. O instituto de pesquisas estima que as empresas gastaram 109 milhões de dólares com a computação na nuvem em 2012, um crescimento de 20% em comparação com o ano anterior. 

Ao mesmo tempo, a indústria de serviços de nuvem é grande e conta com muitos provedores com estratégias agressivas para conquistar clientes. Para orientar as companhias na hora de selecionar seu parceiro, o Garnter elegeu os dez principais fornecedores de serviços de armazenamento, levando em consideração a capacidade deles de atendimento aos clientes.

- Veja a seguir essa listagem com prós e contras da oferta de cada um em ordem alfabética.

Amazon Web Services


Como em muitos outros aspectos da computação em nuvem, a Amazon Web Services é considerada um líder no mercado de armazenamento em nuvem. A empresa é um player precoce e agressiva no mercado. Sua oferta acaba movimentando a concorrência, segundo o Gartner. Seu preço é "benchmark da indústria." A oferta Simple Storage Service (S3) é o serviço básico de armazenamento, enquanto que Elastic Block Storage é para grandes volumes.

A AWS também inova. No início deste ano, anunciou o Glacier, um serviço de armazenamento de arquivos de longo prazo a baixo custo. Apresentou também recentemente na sua primeira conferência de usuários o Redshift, oferta de armazenamento baseado em dados na nuvem.

Mesmo assim, AWS tem desafios. Apesar de contar com uma ferramenta para vincular os dados que estão nas instalações das empresas em nuvem, chamada de AWS Storage Gateway, a capacidade de criar arquiteturas híbridas com essa funcionalidade ainda está em andamento, diz o Gartner. 

A AWS continua lançando produtos e serviços inovadores para manter sua liderança no mercado. Conta também com ofertas orientados para determinados setores como de governo com o seu serviço GovCloud.

AT&T


O serviço da AT&T Synaptic está alinhado com o de armazenamento EMC Atmos, utilizado como instalações de sistemas de armazenamento. Isso cria uma oportunidade para a AT & T vender soluções para a base sólida de clientes da EMC e oferecer recursos de nuvem híbrida.

O Gartner observa que este produto tem focado principalmente pequenas e médias empresas (PMEs). O AT & T Synaptic já abrange várias regiões e a companhia planeja expandir o serviço globalamente. A Europa é a sua próxima parada. Os clientes que utilizam os serviços de VPN da AT & T são liberados dos custos de entrada na nuvem.

Google Cloud Storage


Lançado em 2010, Google Cloud Storage é o produto de armazenamento subjacente para outros produtos e serviços de nuvem do Google. A oferta inclui o Google App Engine, plataforma de desenvolvimento de aplicativos, Google Compute Engine e BigQuery, que são máquinas virtuais baseadas em cloud e uma ferramenta de análise para Big Data. Os clientes acessam o Google Cloud Storage através de uma API . O serviço está disponível nos EUA e Europa.

Porém, o que está impedindo a plataforma de armazenamento em nuvem do Google de ganhar mais presença no mercado é a falta de suporte direcionado a clientes corporativos, afirma o Gartner. Isso faz com que o Google Cloud Storage seja ideal para clientes sofisticados que querem criar e gerenciar a implantação, bem como para desenvolvedores que procuram alta capacidade de armazenamento para aplicativos do Google.

HP


A HP anunciou a versão beta pública de sua plataforma para armazenamento em nuvem e estreou em maio de 2012. O projeto foi concebido para trabalhar com a rede de computadores e distribuição de conteúdo (CDN) e se associou recentemente com a Akamai. A tecnologia é baseada em OpenStack e a HP oferece suporte via chat 24/7 com garantia de disponibilidade de 99,95%. 

"Entre os fornecedores de armazenamento na nuvem com base em OpenStack, a HP está bem posicionada para entender as necessidades de TI dos clientes. Isso em razão de a fabricante ter uma extensa linha de hardware, software e opções de serviço", avalia o Gartner. 

Mas como o Object Storage Cloud é novo, a HP deve evoluir e aperfeiçoar as ofertas de arquitetura e serviços. O sistema replica automaticamente os dados através de três zonas de resiliência disponibilidade (os clientes podem escolher o que fazer na nuvem da Amazon), e a HP processa as informações em seu hardware e em nuvem pública nas instalações de clientes, possibilitando que a configuração de rede híbrida se torne mais fácil.

IBM


O armazenamento em nuvem da IBM é parte de sua oferta empresarial SmartCloud, que inclui outros serviços, tais como o desenvolvimento de aplicativos baseados em nuvem e infraestrutura. 

Para o Gartner, a desvantagem principal da IBM é a falta de integração entre os vários aspectos da oferta SmartCloud. Por exemplo, a IBM vende sua solução de backup em nuvem e de recuperação, mas esses serviços não utilizam o Object Storage SmartCloud em seu servidor

Talvez essa integração não aconteça porque a IBM está associada com a Nirvanix, outro fornecedor de armazenamento em nuvem para executar o armazenamento de objteto do SmartCloud armazenamento. 

O Gartnert acredita que a heterogeneidade desses serviços sob o guarda-chuva da IBM SmartCloud poderia criar "silos de capacidades" para vários serviços. Porém, observa que a IBM está comprometida em integrar seus produtos e serviços. Sua experiência em vender para departamentos de TI de grandes empresas dá uma vantagem significativa para que se torne um player importante no mercado de armazenamento corporativo na nuvem.

Internap 


A história da Internap é de um provedor de serviços gerenciados que recentemente tornou-se também um player em nuvem. Seu sistema de armazenamento na cloud é o AgileFiles, baseado em plataforma OpenStack Swift e está disponível nos EUA, Europa e Ásia, com planos de expansão futura. 

Para diferenciar seu serviço, a Internap tentou separar os recursos avançados de rede em serviço como Manager Internet Route Optimizer (MIRO), que analisa o desempenho das formas possíveis de fornecer e escolher melhor conteúdos. Sua maior limitação, de acordo com o Gartner, é ainda a tímida presença no mercado. 

Microsoft


Depois da Amazon Web Services, o Windows Azure Blob Storage da Microsoft, é segundo previsões do Gartner, o segundo serviço de armazenamento mais utilizado. Atualmente, a tecnologia conta com mais de um bilhão de objetos e cresce 200% ao ano. O produto dá suporte para uma ampla gama de recursos, incluindo armazenamento de objetos, tabela, SQL Server e uma rede de entrega de conteúdo (CDN).

O armazenamento Blob Azure está numa verdadeira corrida para oferecer o menor preço, já que a Amazon e Google baixaram seus custos constantemente no ano passado. Seu objetivo é ser o mais competitivo entre os três. O Gartner chama a Microsoft de "rápida seguidora" das características da AWS. Suas opções de suporte atraem clientes de grandes empresas, de acordo com a consultoria, oferecendo uma equipe de apoio prático, baseado em prestações. 

A Microsoft recentemente expandiu sua oferta com a compra da StorSimple, fornecedor de armazenamento em nuvem.

Nirvanix


O fornecedor de armazenamento em nuvem Nirvanix é dedicado exclusivamente a este mercado. O Gartner avalia que o provedor é ideal para empresas que procuram as necessidades de armazenamento de dados intensivos. Entretanto, a consultoria considera inconvenientes para os clientes que procuram um provedor que oferece todos os cálculos em uma plataforma de armazenamento. 

Mas o Nirvanix tem algumas características atraentes, segundo o Gartner. O instituto de pesquisa destaca a capacidade do provedor de ter serviços de armazenagem público e ofertas mistas para instalações em companhias com opções suporte de alta qualidade. Apesar disso, pode não ser a opção para as PMEs, que preferem preços sobre a demanda.

Rackspace


O Rackspace é outro player importante no ecossistema de armazenamento em nuvem, com sua oferta Cloud Files, que conta com um robusto conjunto de serviços de apoio, incluindo infraestrutura e rede uma CDN alimentada por Akamai. 

Para atender as companhias que necessitam de armazenamento de alto desempenho, o produto do provedor é o Cloud Storage Block. O Rackspace trabalha duro no projeto de código aberto OpenStack e o andamento de seus projetos estão sendo monitorados de perto.

Por causa de seu trabalho no ambiente OpenStack, o Gartner avalia que os serviços públicos de armazenamento em nuvem do Rackspace integram muito bem com nuvens movidas pelo OpenStack, podendo criar cloud híbrida para os clientes.

Softlayer


O sistema de armazenamento CloudLayer da Softslayer é baseado na plataforma OpenStack Swift. O serviço acompanha uma variedade de outros oferecidos pelo Softlayer, incluindo computação e CDN. 

O Softlayer também tem uma oferta SAN com presença internacional. Possui centros de dados em sua sede em Dallas (EUA) em Amisterdã e Cingapura. Mas a falta de ciclos de implementação e suporte turnkey faz com que o produto não seja ainda muito procurado pelo mercado empresarial, afirma o Gartner.

Olhar Digital: Samsung poderá trazer rastreamento de olhos em futuros lançamentos



A Samsung registrou duas marcas misteriosas, referentes a smartphones e tablets, na Europa. Arquivadas no dia 21 de janeiro, pouco se sabe sobre elas a não ser seus nomes: Eye Pause e Eye Scroll. Entretanto, já se imagina o que seriam e onde seriam usados.

Pelo nome, imagina-se que se tratem de funções para rastreamento dos olhos do usuário, que talvez possam estar presentes no Galaxy S4, smartphone que deverá ser lançado ainda neste semestre, aponta o SG4.en.

O Eye Scroll, por exemplo, poderia ser um recurso para rolagem de tela automático para quando o usuário chega ao fim de uma página. Já o Eye Pause poderia parar um vídeo quando o usuário deixa de olhar para a tela.

Como o registro é apenas da marca e não há informações sobre uma possível patente, as possíveis aplicações do Eye Pause e do Eye Scroll ficam apenas na área da especulação. A Samsung também não dá mais detalhes sobre as marcas. 

IDG Now!: Derrubada de botnets diminui drasticamente número de spams



Os níveis globais de spam continuaram a cair em 2012 e até mesmo o número de anexos maliciosos diminuíram. Ao menos é o que sugere as análises recentes realizadas pela empresa de segurança Kaspersky Lab.

A queda é relativa, claro. Mesmo com uma diminuição de oito pontos percentuais, spam ainda continuou responsável por incríveis 72% do total de e-mails enviados durante o ano - o equivalente a dezenas de trilhões de mensagens inúteis e arbitrárias sendo enviadas por meio da Internet.

A queda foi consistente ao longo do ano, diminuindo mês a mês, e chegando em um número abaixo dos 70% nos três últimos meses do ano, disse a Kaspersky.

O que está claro é que o percentual exato de spam enviado para um usuário ou rede varia por país e região. Em termos de distribuição, a China lidera a tabela, com uma em cada cinco mensagens de spam enviadas, seguida pelos EUA, com 15,6%. Tanto a América Latina quanto a Europa tiveram seu nível de ataques mais baixo. E a Ásia responde por um nível desproporcional de atividade, representando metade de todos os e-mails enviados.

Os anexos maliciosos também diminuíram ligeiramente, ficando com 3,4% - embora esse percentual não inclua as mensagens com links embutidos.

De acordo com a Kaspersky, a queda sem precedentes pode ser explicada pela melhoria gradual na filtragem de mensagens. E, indiscutivelmente, o rompimento de botnets - rede de computadores zumbis e o tipo de plataforma usada para enviar spam em massa - provavelmente teve um efeito maior, com a derrubada de várias grandes redes de distribuição - coincidindo com o início do declínio de spam em 2010.

Nesta semana, a botnet Virut - responsável pela maior parte de spam da Europa Oriental e dos EUA - foi encerrada, quando o secretário nacional da Polônia interrompeu seus domínios e servidores de comando e controle. Este é apenas o exemplo mais recente de uma sucessão de 'quedas' de botnet nos últimos dois anos.

Outro motivo poderia ser a existência de maneiras melhores de ganhar dinheiro com o cibercrime, não apenas se infiltrando em mídias sociais. "Essa queda é o resultado de uma saída gradual de anunciantes do spam para outros meios mais convenientes e legais de promover bens e serviços", disse Darya Gudkova, da Kaspersky Lab. "No entanto, isso não significa que spam desaparecerá de repente. Mensagens maliciosas, fraude e publicidade de produtos ilegais não podem simplesmente ou facilmente migrar para plataformas legais, devido à sua própria natureza criminal. Esperamos que a queda no volume de spam em 2013 seja insignificante na melhor das hipóteses."

Sem dúvida, alguns discordarão com os números da Kaspersky, que só refletem o que os seus clientes veem. Mas concordarão com o que outras empresas de segurança têm dito há dois anos. As porcentagens de spam analisadas durante 2012 pela empresa russa são as mesmas relatadas pela Symantec no final de 2011, por exemplo.

INFO: Capacete de eletrodos permite marcar gols com a imaginação


 
Imagem do cérebro de um paciente.

Pelé e Zidane provavelmente não sonharam na infância com algo tão surreal: marcar gols sem precisar calçar chuteiras e ir a campo, graças a um videogame composto de um capacete de eletrodos ativado apenas com a imaginação.

O protótipo de jogo "Brain Arena" (Arena do Cérebro, em inglês), permite aos amantes de videogames que marquem gols imaginando o movimento de suas mãos conduzindo um ponto verde que simboliza a bola.

Mais especificamente, trata-se de imaginar o movimento ativando as áreas motoras do cérebro, e não de visualizar o movimento, o que não traria resultado algum.

O capacete EEG (eletroencefalográfico) registra esta atividade emitida pelo cérebro, a analisa em tempo real e a traduz em um comando no jogo.

Este videogame foi desenvolvido pelo instituo francês de investigação em informática, Inria, em colaboração com o projeto OpenViBE2, dotado de uma verba de 3 milhões de euros.

O diretor do projeto, Anatole Lécuyer, informou na terça-feira, durante a apresentação dos resultados à imprensa, que o OpenViBE2 vem trazendo "grandes avanços científicos".

Este projeto não busca somente desenvolver os videogames baseados na conexão entre o cérebro e o computador para o lazer, mas também com uma vertente terapêutica.

O OpenViBE2 permite aos pesquisadores estudar o campo da atenção e da concentração, e, nesse intuito, desenvolveu um protótipo (CLARTE) destinado às crianças com problemas de deficit de atenção com hiperatividade (TDAH).

"Sabemos onde procurar no cérebro se quisermos medir a atenção e a concentração", explicou Jean-Philippe Lachaux, diretor de investigação em neurociências do Instituto Nacional de Saúde e Investigação Médica (Inserm, em francês). Uma avaliação clínica de TDAH será feita em pouco tempo.

Para o engenheiro de Investigação e desenvolvimento da empresa de videogames Ubisoft -parte integrante do projeto, Aurélien Sérandour, esta tecnologia permite "repensar a maneira de se fazer videogames e de oferecer aos jogadores novas experiências".

Em relação aos capacetes EEG, Sérandour informou que "podemos começar a pensar no seu uso real nos jogos", mas a industria do videogame ainda precisa que o capacete evolua para que seja mais preciso e acessível.

INFO: Bélgica fará ilha artificial para armazenar energia



A Bélgica planeja construir uma ilha artificial no Mar do Norte para armazenar energia eólica. A estrutura que ficará a três quilômetros da costa Belga feita de areia terá o curioso formato de um donut.

Atualmente, 57% da energia consumida no país é obtida por usinas nucleares. Somente 4% da eletricidade é produzida em parques eólicos. Como o governo da Bélgica encontrou problemas em dois reatores e decidiu terminar o programa nuclear até 2025, as autoridades resolveram buscar novas alternativas.

Segundo a Reuters, a ilha é uma dessas opções. Os planos foram anunciados pelo ministro do Mar do Norte, Johan Lanotte, que explicou que o país tem capacidade para produzir uma grande quantidade de energia eólica.

A ideia é que a ilha armazene o excesso de energia produzida por parques eólicos instalados no mar. Isso porque quando o vento acalma, a produção de energia tem de ser suportada por outra fonte de energia. Além disso, o espaço vazio no centro teria reservatórios de água para manter os níveis de energia equilibrados.

Portanto, quando a produção de energia for muito além do previsto, o sistema da ilha bombeará a água do centro da ilha para fora. Já para recuperar a energia, um sistema de comportas permitirá que a água do mar volte a entrar e ative turbinas que gerarão mais energia assim como acontece em usinas hidrelétricas.

Se o projeto da ilha for aprovado, a construção ficará pronto entre dois e cinco anos. Quando isso acontecer, a ilha artificial aumentará a capacidade eólica da Bélgica para 4.000 MW.

Olhar Digital: As 5 piores aquisições do mercado de tecnologia



Não é sempre que uma empresa dá a sorte que a Apple teve ao adquirir a NeXT por cerca de US$ 500 milhões e trazer junto um Steve Jobs. Muitas vezes, a compra é uma bomba que explode na cara dos empresários responsáveis pelo negócio e o resultado normalmente é um prejuízo imenso.

Ao adquirir uma startup ou até mesmo uma companhia já renomada, a empresa está fazendo uma aposta em seus produtos e como eles podem ser utilizados. E muitas vezes esta aposta falha miseravelmente, causando o fim prematuro do serviço, ou uma revenda por um preço muito menor do que o valor pago. Conheça alguns dos piores casos já registrados:

MySpace foi comprado por US$ 580 milhões pela News Corp


O MySpace já foi grande nos Estados Unidos. Apesar de nunca ter ganhado grande relevância no Brasil, a rede social, fundada em 2003, chegou a ser o site mais acessado pelos americanos. Isso chamou a atenção do magnata Rupert Murdoch, que, por meio de sua empresa News Corp, adquiriu a página.

A intenção era utilizar a popularidade do site para atrair audiência para as outras células da corporação, como a Fox News e 20th Century Fox. Entretanto, dois fatores são considerados primordiais para o fracasso da empreitada: a popularização do Facebook e a falta de inovação no MySpace.

Depois de assumir que o negócio havia sido malfeito e que o MySpace era "mal-gerenciado em todos os níveis possíveis", a News Corp assumiu o prejuízo e vendeu a rede social por US$ 35 milhões para a Specific Media.

Geocities foi comprado por US$ 4 bilhões pelo Yahoo!

Quem se aventurou na internet do final dos anos 1990 e início dos anos 2000 certamente se lembra do Geocities, um popular serviço de hospedagem de sites na época. Aproveitando sua popularidade, o Yahoo! decidiu comprá-lo em 1999, no auge da bolha da internet, por assustadores US$ 4 bilhões.

A partir de então, a empresa pouco fez com o serviço, que deixou de ser uma 'cidade virtual', com os sites divididos em regiões relativas ao seu conteúdo, para transformá-lo em uma ferramenta de hospedagem comum. Ainda limitou o acesso às funções gratuitas, gerando a debandada dos usuários. Por fim, sua popularidade foi minguando enquanto o Yahoo! não dava mais tanta atenção ao serviço, até ser oficialmente extinto em 2009.

Palm foi comprada por US$ 1,2 bilhão pela HP
 
A intenção da HP com a compra da Palm, em 2010, era avançar no mercado de mobilidade, aproveitando a marca já estabelecida e os profissionais da empresa. Não funcionou. Na época da aquisição, a Palm já estava em baixa e seu sistema operacional de mobile, o WebOS, vinha perdendo espaço para o Android.

A Palm não decolou como subsidiária da HP. Não conseguiu emplacar um tablet para concorrer com o iPad, assim como não emplacou na área dos smartphones. Em 2011, a HP decidiu abrir o código do WebOS, que mal conseguia sequer aparecer entre as plataformas mais usadas, quanto mais competir com iOS e Android. Em 2012, a HP decidiu partir para outro caminho e fundou a Gram, que utiliza os recursos da Palm, mas voltada para a engenharia de software.

aQuantive foi comprada por US$ 6 bilhões pela Microsoft. A Microsoft decidiu entrar com os dois pés no mercado de publicidade digital em 2007, quando pagou violentos US$ 6 bilhões pela aQuantive, que veio a se tornar uma das divisões da empresa de Redmond. Foi a maior aquisição da história da Microsoft até então, superada apenas pela compra do Skype em 2011.

Entretanto, a Microsoft não conseguiu deslanchar na área da publicidade online e viu o Google seguir tranquilo na liderança deste mercado. Dois anos após a compra, os executivos da aQuantive deixaram o cargo e a tecnologia foi descartada. Em julho de 2012, a Microsoft assumiu o prejuízo da transação, uma vez que nos 12 meses anteriores a divisão da qual a aQuantive fazia parte acumulou um prejuízo de US$ 2 bilhões.

Time Warner foi comprada pela AOL por US$ 164 bilhões
 
Esta é conhecida universalmente como a pior fusão já feita no mercado de tecnologia. Buscando entrar no ramo multimídia, a americana AOL, até então um popular serviço de internet, decidiu se unir com a multinacional Time Warner, empresa responsável por filmes e vários canais de televisão dos Estados Unidos. Para isso, desembolsou US$ 164 bilhões em 2000.

Os anos que se seguiram foram trágicos para as duas companhias, que nunca pareceram se acertar. Em 2002, a nova companhia chegou a registrar um prejuízo estonteante na casa de US$ 99 bilhões, a maior perda já registrada por uma empresa até então. Em 2005, após o Google comprar US$ 1 bilhão em 5% das ações do grupo, a companhia foi avaliada em US$ 20 bilhões. Trata-se de uma queda de 90% do valor em cinco anos.

Além disso, até 2009, quando as duas empresas finalmente se separaram, o que se viu foram demissões em massa, saídas de executivos e queda no valor das ações das companhias, que hoje valem apenas uma fração do que valiam na época da fusão. 

UOL: Cientistas transformam DNA em dispositivo para armazenar dados



PARIS, France, 24 Jan 2013 (AFP) - Cientistas britânicos anunciaram um salto na busca para transformar o DNA em uma forma revolucionária de armazenamento de dados.

Uma seção de DNA criada pelo homem consegue armazenar montanhas de dados que podem ser congeladas a vácuo, transportadas e armazenadas, potencialmente por milhares de anos, afirmaram.

Os conteúdos são "lidos" decifrando-se o código genético - como é feito rotineiramente hoje - e transformando-os em código de computador.

"Nós já sabemos que o DNA é uma forma robusta de armazenar informação porque podemos extrai-lo de ossos de mamutes, que datam de dezenas de milhares de anos, para estudá-lo", afirmou Nick Goldman, do Instituto Europeu de Bioinformática (EBI) em Cambridge.

"Também é incrivelmente pequeno, compacto e não precisa de qualquer energia para armazenamento, além de ser fácil de transportar e manter", acrescentou.

O DNA, molécula da vida, é formada por uma dupla hélice de compostos - uma longa "escada" em espiral molecular, compreendendo quatro degraus químicos: adenina, citosina, guanina e timina, que se combinam aos pares. A citosina (C) combina com a guanina (G), enquanto a timina (T) combina com a adenina (A).

A sequência de letras compõe o genoma ou a estrutura química sobre a qual a vida é criada e sustentada. O DNA humano tem mais de três bilhões de letras, emaranhadas em pacotes de 24 cromossomos.

O projeto consiste em traduzir os dados genéticos para a linguagem binária do computador (0 e 1) e transcrevê-los em um código de "base 3" (ternário), que utiliza zeros, uns e dois.

Os dados são transcritos pela segunda vez como código de DNA, que se baseia em A, C, G e T. Um bloco de cinco letras é usado para um único dígito binário.

As letras são então transformadas em moléculas, usando produtos químicos de laboratório.

Segundo os cientistas, o trabalho não empregou DNA vivo, nem buscou criar qualquer forma de vida e, na verdade, o código feito pelo homem seria inútil para qualquer fim biológico.

"Não temos qualquer intenção de brincar com a vida", disse Goldman.

Apenas trechos curtos de DNA podem ser feitos, o que significa que a mensagem precisa ser cortada em pequenas seções de 117 letras, cada uma aderida a uma pequena etiqueta, como uma "comutação de pacotes" (técnica em que a mensagem é dividida e enviada em pequenos pacotes) na internet, o que permite que os dados sejam reagrupados.

Para provar sua teoria, a equipe codificou uma gravação em MP3 do discurso "Eu tenho um sonho", de Martin Luther King; uma foto digital de seu laboratório; um arquivo PDF do estudo de 1953 que descreveu a estrutura de DNA; um arquivo com todos os sonetos de Shakespeare; e um documento que descreve a técnica de armazenamento de dados.

"Nós baixamos os arquivos da internet e os usamos para sintetizar centenas de milhares de pedaços de DNA. O resultado parece com uma minúscula partícula de poeira", explicou Emily Leproust, da empresa americana de biotecnologia Agilent, que pegou os dados digitais e os utilizou para sintetizar moléculas de DNA no laboratório.

A Agilent enviaram por correio a amostra de volta ao EBI, na Inglaterra, onde os cientistas encharcaram o DNA com água para reconstitui-lo e usaram equipamento padrão de sequenciamento para desvendar o código. Eles recuperaram e leram os arquivos com 100% de exatidão.

O trabalho se segue a um avanço feito no ano passado, quando cientistas da Universidade de Harvard anunciaram ter armazenado 700 terabytes de dados - o suficiente para armazenar cerca de 70.000 filmes - em uma grama de DNA.

O novo método elimina o risco de erro na leitura do DNA, afirmam os cientistas, cujo trabalho foi publicado na edição desta semana da revista Nature.

"Nós pensamos, vamos partir o código em muitos fragmentos sobrepostos indo nas duas direções, com informação indexada indicando onde cada fragmento se encaixa no código geral, e fizemos um esquema codificado que não permite repetições", explicou Ewan Birney, co-autor do estudo.

"Desta forma, você precisaria cometer o mesmo erro em quatro diferentes fragmentos para falhar e isto seria muito incomum", emendou.

A informação se acumula maciçamente no mundo e o armazenamento de tantos dados é uma dor de cabeça. Discos magnéticos e ópticos são volumosos, precisam ser mantidos em ambientes frios e secos e são propensos a se degradar.

"A única limitação (ao armazenamento em DNA) é o custo", disse Birney, ressaltando que estes valores tendem a cair.

O sequenciamento e a leitura do DNA levam umas duas semanas com a tecnologia atual, portanto não seria recomendável para a recuperação instantânea de dados. Mas, seriam apropriados para dados armazenados entre 500 e 5.000 anos, como uma enciclopédia do conhecimento e da cultura humanas, por exemplo.

Olhar Digital: Google quer criar uma rede wireless misteriosa em Mountain View



O Google está colocando em fase de testes um projeto que pode interessar a muita gente. A empresa pediu permissão ao governo americano para implantar uma rede sem fio em um raio de cerca de 3,2 quilômetros em volta de sua sede em Mountain View, na Califórnia.

Segundo o Wall Street Journal, analistas acreditam que possa se tratar de um experimento para levar internet sem fio de alta velocidade para outras localidades do país. A rede seria desenvolvida para permitir às pessoas acessarem a internet pelo seus aparelhos móveis.

As informações vem de um formulário enviado ao Google à Comissão Federal de Comunicações (FCC) do país pedindo licença para criar o que foi chamado de um "serviço de rádio experimental", que usa frequências incompatíveis com a maioria dos eletrônicos disponíveis no mercado atual, que variam entre 2524 e 2625 MHz.

"A única razão para usar estas frequências é se você tiver um modelo de negócios em algum serviço móvel", diz o engenheiro Steven Crowley, que primeiro identificou o pedido do Google, apostando em um novo serviço do Google.

O jornal aponta que esta frequência é ideal para grandes cidades e diz que operadoras de celulares da China, Japão e até mesmo do Brasil já estão criando redes que funcionem nesta frequência. Isso significa que em breve os aparelhos deverão aceitar esta faixa. 

Bahia Press: Sistema de passaportes da Polícia Federal está fora do ar



O sistema utilizado pela Polícia Federal (PF) para realização de pedido e emissão de passaportes está fora do ar desde 15h de quarta-feira(23), e não há prazo para o retorno do sistema. A indisponibilidade afeta todo o País e inclui a prestação dos serviços administrativos como o agendamento, a emissão e a entrega de passaportes, além do agendamento e o atendimento relacionados ao registro de estrangeiros. A informação foi confirmada pela assessoria de imprensa da PF em São Paulo, reiterando que ainda não há previsão de retorno do sistema, já que a origem do problema ocorreu na central, em Brasília. 

A orientação é que os cidadãos que já tinham agendamento e não foram atendidos compareçam às unidades da Polícia Federal nos próximos dez dias úteis, independentemente de novo horário. O ideal é tentar confirmar a volta do sistema pelo telefone 194 antes de ir à unidade da PF. Para quem tem agendamento nos próximos dias, o atendimento também deve ser confirmado antes por telefone.

quinta-feira, 24 de janeiro de 2013

CORREIO: Ponto eletrônico será instalado nas unidades de saúde a partir de fevereiro



O secretário da Saúde da Bahia, Jorge Solla, anunciou nesta quarta-feira (23) que a partir de fevereiro será instalado, em todas as unidades de saúde do estado, o ponto digital. Por meio do equipamento, será possível aperfeiçoar as escalas e verificar com mais facilidade a presença do funcionário, inclusive médicos.

Representantes das Secretarias da Saúde (Sesab) e da Administração (Saeb) e da Corregedoria Geral visitaram a maternidade Tysilla Balbino, no bairro do Pau Miúdo, no início da manhã, a fim de fiscalizar o cumprimento das escalas de funcionários e dos plantões médicos. A inspeção surpresa é a terceira realizada na rede estadual.

Os primeiros hospitais fiscalizados foram o Manoel Vitorino, no bairro de Nazaré, onde 27% dos funcionários estavam ausentes, e Clériston Andrade, em Feira de Santana. No segundo hospital, 30% não foram trabalhar durante a semana em que houve fiscalização. 

Segundo a Sesab, quando constatada as faltas, o hospital recebe uma notificação da Sesab para que os servidores justifiquem suas ausências. Os relatórios feitos pela equipe são entregues às unidades hospitalares para que os funcionários expliquem o motivo da ausência. 

De acordo com a coordenadora de Fiscalização da Corregedoria Geral, Elaine Silveira, se a justificativa não for comprovada ou se for provado abandono das funções, o servidor estará sujeito às penalidades estabelecidas, que implicam em perda financeira, sindicância e outras punições.


Maternidade Tsylla Balbino recebeu inspeção surpresa na manhã desta quarta

Novo Instituto Couto Maia

O secretário Jorge Solla informou após a visita à maternidade que o novo Instituto Couto Maia será sediado no prédio do Hospital Dom Rodrigo de Menezes, o antigo leprosário que funcionava em Cajazeiras e foi fechado. As propostas dos consórcios interessados em gerir o novo instituto serão conhecidas nesta quinta-feira (24), na Bolsa de Valores de São Paulo. 

O Instituto Couto Maia vai ser construído e gerido por meio de Parceria Público Privada (PPP). O hospital, especializado em doenças infecciosas, terá 155 leitos, assistência ambulatorial e de urgência e emergência. De acordo com a Sesab, o Hospital do Subúrbio, em Salvador, foi a primeira experiência de PPP realizada na área de saúde pública no Brasil.

INFO: Governo estuda dividir ICMS de e-commerce



Uma das prioridades de aprovação no Congresso este ano para o Planalto é a Proposta de Emenda à Constituição (PEC) que trata da divisão do ICMS do e-commerce entre Estados e municípios.

O texto já foi votado no Senado e o Planalto espera que seja aprovado ainda este semestre na Câmara. Hoje, a cobrança desse ICMS está reunida basicamente em um único Estado, São Paulo, que concentra a venda de mercadorias pela internet para o resto do País. O governo federal, os demais Estados e os municípios estão de olho na divisão dessa arrecadação.

Se aprovada, a nova regra vai diminuir a arrecadação do governo do Estado São Paulo e, na prática, dividí-la com os Estados e municípios onde os produtos são entregues.

"Somente no ano passado, este ICMS eletrônico na compra por internet cresceu quase 30% e isso fica praticamente em um só Estado, São Paulo", disse a ministra-chefe da Secretaria de Relações Institucionais, Ideli Salvatti, durante café da manhã com a imprensa, ao defender a distribuição dos recursos. "Um quarto do ICMS é dos prefeitos e seria absolutamente adequado que os prefeitos acompanhassem, porque também são parte interessada na evolução dessa discussão", declarou Ideli. Ela considera o assunto "pacífico" e sugere que os prefeitos, que estarão reunidos em Brasília na semana que vem, se mobilizem pela divisão do bolo, já que todos serão beneficiados.

Ideli listou também como prioridade de votação em 2013 novas medidas tributárias, como simplificação do PIS e da Cofins. Segundo ela, o governo vai continuar enviando medidas ao Congresso com o objetivo de reduzir os custos da produção no País, para aumentar a competitividade. "A determinação da presidenta é reduzir o custo Brasil", declarou Ideli, ao classificar como prioritária "a aprovação de um conjunto de questões que tem a ver com tributo e federação". Ideli citou como fundamental também a aprovação do novo indexador da dívida dos Estados e municípios. De acordo com a ministra, o governo quer, ainda este ano, a aprovação do Plano Nacional de Educação (PNE).

Ao defender a unificação da alíquota do ICMS no País, com o objetivo de acabar com a guerra fiscal, a ministra Ideli lembrou que o governo "está trabalhando bastante" para que isso aconteça. E explicou: "até porque o ICMS é um dos impostos que têm alíquotas bastante elevadas, é um imposto que tem uma dificuldade operacional grande, já que são 27 legislações, quase 50 alíquotas, e aí você tem situações por exemplo de empresas que atuam em vários Estados e tem de ter uma equipe imensa só para poder administrar essa questão da legislação".

A ministra Ideli está confiante na aprovação da unificação da alíquota. "Eu acredito que nós sejamos bem-sucedidos por alguns motivos. Primeiro, não se estará fazendo uma mudança brusca, uma mudança na qual a unificação da alíquota vai ocorrer nos próximos anos. A outra questão é que não há desculpa para não fazer, porque as perdas, sejam no ICMS Estado por Estado, têm um fundo de compensação que irá cobrir a diferença", justificou.