segunda-feira, 16 de abril de 2012

Folha Paulistana: Cidades da Copa vão ter telefonia 4G até dezembro de 2013



Todas as capitais do país e os municípios
com mais de 500 mil habitantes terão a
tecnologia 4G até dezembro de 2014 - (Foto Wilton)

As operadoras que vencerem o leilão da faixa de frequência de 2,5 giga-hertz (GHz), que será destinada à telefonia de quarta geração (4G), deverão oferecer o serviço a todas as cidades que serão sedes da Copa das Confederações até abril do ano que vem e para todas as sedes e subsedes da Copa do Mundo até dezembro de 2013. As regras para o leilão, que deve ser realizado no início de junho, foram aprovadas hoje (12) pela Agência Nacional de Telecomunicações (Anatel).

Todas as capitais do país e os municípios com mais de 500 mil habitantes terão a tecnologia 4G até dezembro de 2014. As cidades com mais de 200 mil habitantes serão contempladas em dezembro de 2015 e as com mais de 100 mil habitantes, até dezembro de 2016. Os municípios que tem entre 30 e 100 mil habitantes serão atendidos até dezembro de 2017.

Nos pequenos municípios, as operadoras poderão utilizar a infraestrutura já existente para oferecer banda larga, mas ainda com a tecnologia de terceira geração (3G). “Estamos passando a mensagem de que investir vale a pena. Porque aqueles que já fizeram investimentos vão poder utilizar a sua infraestrutura”, disse o relator da proposta, conselheiro Marcelo Bechara.

A proposta do edital foi colocada em consulta pública em janeiro e recebeu 2011 contribuições. O relator propôs a divisão de uma das subfaixas que será licitada em dois blocos, o que, segundo ele, vai aumentar a competitividade da licitação.

As empresas que vencerem o leilão das faixas destinadas à telefonia 4G deverão usar pelo menos 60% dos equipamentos fabricados no país em suas redes entre 2012 e 2014. Nos dois anos seguintes, o percentual dos investimentos em aquisição de bens e produtos com tecnologia nacional passa para 65% e, entre 2017 e 2022, para 70%.

Na mesma licitação, também será oferecida a faixa de 450 mega-hertz (MHz), para a oferta de telefonia em áreas rurais. Até junho de 2014, as operadoras deverão atender a 30% da demanda, em dezembro a exigência passa para 60% e até dezembro de 2015, todas as áreas rurais devem ser atendidas. Além dos serviços de telefonia e internet para as residências, as operadoras também deverão oferecer internet nas escolas da área rural.

Pelas regras do edital, a Anatel vai leiloar primeiro as faixas para a zona rural e, se não houver interessados, elas serão atreladas ao leilão da faixa de 2,5 GHz. As operadoras que ganharem a licitação da telefonia de 4G deverão cumprir as metas para a telefonia rural.

Info: Brasileiros fazem fortuna com novas ideias na internet




Isabel se formou no MIT e comanda o Lemon, 
um aplicativo para celulares que serve para
organizar os gastos

Os brasileiros que fizeram mais sucesso no exterior entre os nascidos nos anos 70 talvez tenham sido os atletas Ronaldo Nazário, o Fenômeno, e Gustavo Kuerten. Eles ainda são de uma época em que para ser jovem, famoso e rico era preciso ser ídolo em algum esporte, integrar uma banda de rock ou atuar em novelas.

Tudo mudou com a nova geração, nascida no final dos anos 80 e começo dos 90, que praticamente se alfabetizou depois de a internet ter se popularizado. Entre esses jovens, dois brasileiros fizeram uma fortuna que estaria nos sonhos até mesmo de craques do Barcelona.

Eduardo Saverin foi o primeiro deles, ao transformar-se em cofundador do Facebook. Segundo a revista Forbes, ele integra a lista dos bilionários mundiais. Outro novo milionário do mundo digital é o brasileiro Mark Krieger, que estampou as capas do New York Times e do Wall Street Journal na semana passada, depois de vender o Instagram, um aplicativo de compartilhamento de fotos no celular, justamente para a gigante rede social.

Por ter 10% da empresa, Krieger, criado num condomínio de Alphaville, ou brasileiro "by birth", como ele se descreve no Twitter, tem agora cerca de US$ 100 milhões entre dinheiro e ações do Facebook, a nova proprietária do Instagram.

Em comum, os dois estudaram em algumas das universidades mais renomadas do mundo. Saverin se graduou em Harvard, onde fundou o Facebook com Mark Zuckerberg. Krieger é de Stanford, na Califórnia. Ele ainda vive no Vale do Silício, onde o cofundador do Facebook também já viveu.

Muitos brasileiros dessa nova geração têm se mudado para os Estados Unidos em busca do sonho de conseguir o mesmo sucesso de Saverin e de Krieger. Como os dois, também ingressam em universidades de renome e acabam indo para a Califórnia não para surfar ou ser artista de cinema, como os jovens do passado, mas para tentar ser o próximo prodígio do mercado tecnológico, criando um produto que encante o mundo.

No topo dessa lista está a brasileira Bel Pesce, que nasceu em uma família de classe média de São Paulo e estudou no colégio Etapa. Foi aceita no MIT e, de cara, precisou lidar com o seu primeiro problema: pagar a anuidade de cerca de US$ 40 mil. Como seus pais não podiam ajudá-la, ela trabalhou em empresas como Google, Microsoft e Deutsch Bank, além dos departamentos de Matemática e Economia do MIT e no prestigioso Media Lab.

Hoje, Bel vive no Vale do Silício e comanda o Lemon, um aplicativo para celulares que serve para organizar os gastos. "Observamos que os smartphones mudaram o comportamento das pessoas de muitas maneiras", disse Bel. Ela exemplifica: "Não há mais necessidade de carregarmos uma câmera, mas, por outro lado, ainda carregamos carteiras cheias de recibos, cartões e muito mais, por isso acreditamos que o celular poderá se transformar em uma carteira inteligente, com muito mais recursos". As informações são do jornal O Estado de S. Paulo.

INFO: 4G no Brasil será feito às pressas, dizem analistas



São Paulo – A Agência Nacional de Telecomunicações (Anatel) definiu ontem (12) as regras para o edital de licitação das frequências para instalação da rede 4G no Brasil. No entanto, as determinações vêm gerando críticas entre as empresas e analistas.

De acordo com as novas regras, os vencedores deverão atender todas as seis cidades que receberão os jogos da Copa das Confederações até abril do ano que vem. Além das sedes e subsedes da Copa do Mundo de 2014 até dezembro de 2013.

As principais operadoras do país afirmam que o curto prazo estabelecido pela Anatel poderá reduzir os custos dos investimentos em outras áreas, incluindo o 3G e não garantirá uma infraestrutura pronta para todos esses eventos.

“A Copa das Confederações será a prova de fogo para as empresas. Será um longo período ainda até assinar o contrato para dar início à implementação da infraestrutura, o que só deve acontecer em outubro se a licitação ocorrer de fato em junho. É preciso pagar tudo antes ao governo e são processos que demoram. São coisas que normalmente demorariam de 12 a 18 meses e o prazo aqui será de 6 meses somente”, afirma Erasmo Rojas, diretor da 4G Americas para America Latina e Caribe.

Outro problema é a falta de compatibilidade dos atuais aparelhos existentes no mercado com a frequência da tecnologia que será utilizada no país por meio da faixa de 2,5 GHz.

Segundo dados da consultoria Teleco, atualmente no Brasil ainda não existe nenhum modelo de celular compatível com esta frequência. Quando considerado dados mundiais, há 94 tipos de aparelhos que funcionariam no país. Além disso, a empresa acredita que existe a possibilidade de não haver uma conectividade 4G efetiva no país durante a Copa de 2014.

“Isso [cobertura 4G na Copa] é mais uma questão de marketing do governo e não fará muita diferença. Para a Copa o problema é muita gente de fora concentrada em um só local, e será preciso aumentar a capacidade de voz e dados. Para isso as operadoras vão ter de implantar recursos como Wi-Fi e HSPA+”, afirma Eduardo Tude, presidente da consultoria Teleco.

Além disso, turistas oriundos dos Estados Unidos não conseguirão utilizar a rede 4G brasileira devido à incompatibilidade com seus aparelhos. Já os europeus terão mais oportunidades para usar nossa rede, mas como ainda a oferta de dispositivos LTE na região é reduzida é capaz de durante a Copa do Mundo não haver muito uso desse tipo de conexão.

Outra reclamação diz respeito à obrigatoriedade das operadoras em investir na faixa de 450 MHz para levar internet banda larga a zona rural. Pelas regras, a Anatel irá primeiro leiloar as faixas de 450 MHz e assim, se não houver interessados, elas serão juntadas ao leilão da faixa de 2,5 GHz e as operadoras que vencerem a licitação da telefonia de 4G deverão cumprir as metas propostas para a zona rural.

“Essa determinação da Anatel segue o mesmo princípio de alguém que vai à uma loja comprar um carro, mas é obrigado a comprar uma bicicleta para fechar o negócio”, diz Rojas.

Insight: Negócios bilionários reacendem debate sobre valorização excessiva de empresas de internet


Estreia do Facebook na bolsa de valores deve ser mais um capítulo da discussão

Operação de US$ 1 bilhão, a compra do Instagram – um aplicativo gratuito de compartilhamento de fotos com apenas 13 funcionários e 551 dias de vida – pelo Facebook, na semana passada, ativou uma mensagem de alerta no monitor de analistas e investidores do setor de internet e software: estaria o mercado na iminência de uma nova bolha?


Entre especialistas, não há quem não tenha se impressionado com o valor. Apenas uma semana antes da aquisição, a Sequoia Capital e o Greylock Partners, fundos de risco americanos, haviam pago US$ 50 milhões por 10% de participação no Instagram – definindo assim um valor de mercado para o aplicativo de meio bilhão de dólares.


Poucos dias depois, a empresa de Mark Zuckerberg pagaria o dobro pelo app.
– Não há dúvidas de que US$ 1 bilhão por uma empresa tão pequena é muito dinheiro. Negócios como esse acontecem poucas vezes – afirma Brian Blau, diretor de Pesquisas, Tecnologia e Mercados da Gartner, consultoria especializada em tecnologia e informação.


Fosse um caso isolado, a compra não suscitaria o debate de valorização exagerada neste setor. Mas não foi. Operações bilionárias envolvendo o controle de slim startups (como são chamadas empresas jovens, com pouquíssimo patrimônio e baixa geração de receita) por grandes grupos têm se enfileirado nos últimos anos.


Em outubro de 2011, a Microsoft pagou US$ 8,5 bilhões pelo Skype, software de chamadas de voz e vídeo, e a HP desembolsou US$ 10,3 bilhões pela desenvolvedora de software europeia Autonomy Corporation. IPOs (ofertas iniciais de ações na bolsa de valores) programadas ou recém-realizadas também mostram que há muito dinheiro circulando nas empresas de internet e tecnologia.


Prevista para o final de maio, a estreia do Facebook na bolsa já estima seu valor de mercado em US$ 100 bilhões. Detalhe: o faturamento da rede social hoje em 2011 foi de US$ 3,7 bilhões. Em dezembro passado, a produtora de games Zynga levantou US$ 1 bilhão em sua IPO, o que a alçou ao status de maior abertura de capital de uma empresa de internet desde que o Google lançou suas ações, em 2004. O mercado também tem sido generoso com os veteranos da bolsa. Na semana passada, o valor da Apple, empresa mais valiosa do mundo, chegou ao recorde de US$ 600 bilhões.


– Há muito dinheiro e entusiasmo, mas também altos riscos. Acho que há, sim, uma pequena bolha se formando, embora estejamos falando de um mercado muito novo, que ainda não conhece as todas suas potencialidades – analisa Blau.


Embora o cenário atual possa lembrar o do início dos anos 2000, quando houve o estouro da bolha das empresas pontocom, a realidade hoje é outra, diz Marcelo Marzola, diretor-geral da Predicta, especializada em mercado digital. Há 12 anos, não havia demanda por serviços e produtos pela internet e smartphones, como há hoje, explica.


– Antes, as aquisições não consideravam a demanda de mercado. Já as operações recentes são avaliadas de forma muito mais racional, considerando seus impactos no negócio – argumenta Marzola.

Tribuna da Bahia: Hoje o ministro da Ciência, Tecnologia e inovação visitará hoje o Parque Tecnológico da Bahia, em Salvador




O ministro da Ciência, Tecnologia e Inovação, Marco Antonio Raupp, visitará hoje, às 15h, o Parque Tecnológico da Bahia, em Salvador. Ele conhecerá as instalações do empreendimento, acompanhado do governador Jaques Wagner e do secretário de Ciência e Tecnologia, Paulo Câmera. Com recursos dos governos estadual e federal, o Parque já recebeu investimentos de mais de R$ 50 milhões para obras de infraestrutura e equipamentos do Tecnocentro, prédio central do empreendimento.

G1 - Futuro dos dados armazenados pelo Megaupload ainda está em suspenso


Juiz pediu investigação sobre o que deve ser feito com os arquivos.
Megaupload não paga mais empresa que mantém os dados guardados.

Um juiz pediu que houvesse mais investigações sobre o que deve ser feitos com os milhões de dados de usuários que foram removidos da internet quando investigadores federais dos Estados Unidos fecharam o Megaupload.

O site, usado para compartilhar arquivos, foi fechado pela Justiça em janeiro por suspeita de possibilitar um esquema de pirataria de arquivos protegidos por direitos autorais. As autoridades estimam que as operações do site possam ter causado um prejuízo de US$ 500 milhões.

O juiz ouviu, nesta sexta-feira (13), os argumentos em uma corte federal na Alexandria sobe o que deve ser feito com os arquivos que eram controlados pelo site.

Os promotores afirmam que o Megaupload era uma organização criminosa que facilitava compartilhamento ilegal. A empresa que cuida dos servidores que estão armazenando os arquivos do site quer orientações sobre o que fazer com os dados.

O Megaupload não paga mais a manutenção dos servidores, mas quer preservar os arquivos, que podem ser usados como possível evidência.

G1 - Cofundador do Google diz que governos são contra 'web aberta'



Em entrevista, Sergey Brin diz que países tentam controlar fluxo de dados.
Ele também disse que Apple e Facebook são vilões.
Sergey Brin (à direita) diz que governos ameaçam a
internet livre. (Foto: Divulgação)

O cofundador do Google, Sergey Brin, afirmou que está preocupado com o futuro da internet. Em entrevista ao jornal britânico "The Guardian", ele afirmou que "há forças muito poderosas que se alinharam contra a internet aberta em todos os lados do mundo".

Brin acredita que os governos de países pressionam as empresas e provedores de internet, tentando controlar o fluxo de informação na web, fazendo com que eles sejam a principal ameaça à liberdade da internet no mundo.

Outros vilões, segundo ele, são a indústria do entretenimento, que tenta acabar com a pirataria, e empresas como Apple e Facebook, que controlam quais programas podem ser lançados em suas plataformas. "Estou mais preocupado com isso agora do que estava no passado. É assustador", disse.

O executivo acusa o Facebook de não querer compartilhar dados de seus usuários com outras empresas, e diz que seria "impossível criar uma companhia como o Google se a internet fosse dominada pela rede social". "Você tem que jogar com as regras deles, que são muito restritivas".

Em nome da internet livre, o Google encerrou uma série de operações na China em janeiro de 2010, tentando evitar que o governo do país pudesse acessar informações dos usuários e controlasse o fluxo de informações na web. A empresa mantém o sistema operacional móvel Android aberto para desenvolvedores. Recentemente, por conta de críticas quanto a privacidade dos dados dos usuários em seus serviços, a empresa mudou sua política de privacidade.

"Fazemos o possível para proteger as informações. Se tivéssemos uma varinha mágica e não sermos obrigados a responder às leis dos Estados Unidos, seria ótimo. Se vivêssemos em uma jurisdição mágica em que todos no mundo confiássem, também seria ótimo. Estamos fazendo o melhor possível", disse Brin ao "The Guardian".

Olhar Digital: Uso de banda larga móvel continua crescendo no Brasil, mas ainda é menor que média da América Latina


Leilões de novas frequências devem impulsionar esse crescimento, afirma 4G Américas 


As assinaturas de banda larga no Brasil cresceram quase 100% em 2011, fechando o ano com 41 milhões de usuários. "Embora menor que o percentual de 2010, que foi de 138%, esse número continua sendo bastante expressivo e retrata o forte potencial de consumo população, inclusive da chamada nova classe média", comenta Erasmo Rojas, diretor da 4G Americas para America Latina e Caribe.

Apesar de um constante crescimento, o uso real de dados ainda é pequeno. Enquanto em países como Argentina os usuários consomem cerca de 48% de seus pacotes (dados + voz) em banda larga móvel, no Brasil o percentual é de apenas 22%, 1 ponto percentual menor que a média da região. Em receita, isso significa 3,08 dólares dos 14 dólares, que é a média mensal da América Latina de gasto com celular.

"A entrada de novos handsets, como tablets e smartphones, pode ajudar nesse crescimento", destaca o executivo, que aponta a diminuição do uso dos modens externos como indicio desse movimento. Em 2010, o número de acessos à banda larga móvel por modens e celulares era quase a mesma. Hoje, apenas 19% da conexão móvel é feita por modens. A grande maioria, 81%, é realizada por celulares.

Os leilões de novas frequências também devem impulsionar esse crescimento, já que as operadoras poderão oferecer serviços com mais qualidade. A penetração de banda larga móvel na América Latina é de 12%, e a estimativa da 4G Américas é de que em 2015 atinja 57%, ultrapassando voz, que é ainda a principal fonte de receita das operadoras hoje.

Globalmente, a demanda de celulares com acesso a banda larga móvel cresce 75% ao ano, porém, metade desse recurso é consumido por apenas 1% dos usuários, enquanto 3% dos usuários de peso (heavy users) são responsáveis por 70% do trafego.

"As operadoras têm o desafio de encontrar um caminho para dosar uso e receita, pois as redes não são capazes de suportar hoje uma fatia grande de usuários de peso. Como a nova geração já nasce conectada, esse tipo de usuário deve crescer muito", completa Rojas. 

INFO:PM troca coronel responsável por tablets nas viaturas



São Paulo - O comando da Polícia Militar de São Paulo transferiu o Coronel Alfredo Deak Júnior, responsável pelo projeto de instalação de tablets nas viaturas da PM, para o Comento de Policiamento Metropolitano 7, em Guarulhos.

O tablet de fabricação nacional i-MXT, que venceu a licitação para o projeto da Polícia Militar de São Paulo, recebeu duras críticas em um relatório elaborado pelo Major Olímpio Gomes (PDT).

Entre as reclamações, estão a falta de comunicação com as redes de internet móveis instaladas na cidade de São Paulo, em especial da operadora Vivo. Em nota, o grupo MXT afirmou que os tablets atenderam todos os requisitos dos testes de homologação realizados por uma consultoria externa junto à rede da Vivo, que fornece o serviço para a Polícia Militar. Os testes foram feitos pela empresa Telmax, indicada pela Vivo.

Na quarta-feira (11), o secretário de Segurança Pública de São Paulo, Antônio Ferreira Pinto, determinou a suspensão de todas as compras feitas pela Polícia Militar na área de tecnologia da informação feitas desde o último mês de dezembro.

Segundo reportagem da Folha de S. Paulo, há suspeitas de irregularidade na licitação para os tablete, com custo previsto de 25 milhões de reais. O relatório enviado à PM também aponta direcionamento na licitação de compra de Estações Rádio Base, com custo previsto de 122 milhões de reais. A compra foi suspensa pelo governo.

A nota oficial da Secretaria da Segurança Pública que trata dos 22 novos comandantes e seus postos na PM não faz nenhuma menção ao relatório ou mesmo motivos para a troca de posto do Coronel Deak.

UOL: Cinco tendências de cloud, segundo o Gartner

Cinco tendências de cloud, segundo o Gartner
Para passar por essas fases com tranquilidade, as companhias devem desenhar um planejamento afinado com o novo universo.
Computerworld/Espanha
16 de abril de 2012

Embora o potencial da computação em nuvem seja impressionante, dizem especialistas, o impacto e o nível de aprovação ao longo do tempo são incertos e requerem revisões frequentes da estratégia empresarial. Nesse sentido, o instituto de pesquisas Gartner identificou cinco tendências de cloud computing que estão ganhando força e que podem se fortalecer nos próximos três anos. Para passar por essas fases com tranquilidade, as companhias devem desenhar um planejamento afinado com o novo universo. 

Por exemplo, a nuvem traz uma série de benefícios, como redução de custos, maior flexibilidade e complexidade baixa, além de direcionar recursos para áreas de maior valor agregado, reduzindo os riscos. No entanto, esses benefícios potenciais devem ser cuidadosamente examinados e comparados com os desafios e ameaças, incluindo segurança, falta de transparência, preocupações com o desempenho e a disponibilidade, restrições sobre as necessidades de licenciamento e integração. Esses problemas criam um ambiente complexo que devem ser levados em consideração ao avaliar a nuvem.

Segundo o Gartner, a cloud híbrida é imperativa hoje. O modelo refere-se à coordenação e à combinação de computação em nuvem terceirizada (pública ou privada) e a infraestrutura interna da empresa. Ao longo do tempo, a nuvem híbrida pode resultar em um modelo unificado em que há uma cloud formada por várias plataformas que podem ser usadas, conforme necessário, com base na mudança de requisitos de negócios.

O instituto de pesquisas recomenda ainda que as organizações tenham em mente que quando os aplicativos são executados em nuvens públicas devem ser estabelecidas diretrizes e padrões para determinar como esses elementos se combinam com os sistemas internos para formar um ambiente coerente que oferece um bom desempenho.

Ajuda de quem entende

A escolha de cloud implica na adoção de um suporte. Um integrador de serviços em nuvem (MMS) é um provedor de serviços que desempenha um papel intermediário na migração para a computação em nuvem e pode ajudar no momento pós-implementação. O interesse no conceito aumentou no ano passado e o Gartner espera que essa tendência cresça nos próximos três anos, à medida que as empresas buscam mais serviços de nuvem sem envolver o departamento de TI.

As empresas também não devem se esquecer de migrar, na primeira oportunidade que tiverem, as cargas de trabalho de infraestrutura existente para a nuvem. Essa abordagem pode trazer benefícios quando a organização tem exigências de recursos variáveis. 

No entanto, para explorar plenamente o potencial de um modelo de nuvem, as aplicações devem ser concebidas com características, limitações e oportunidades de um modelo de nuvem em mente. O instituto de pesquisas recomenda que as empresas olhem para além da migração de cargas e que elas aproveitem todo o potencial da entrevista de aplicativos no modelo.

Com o mercado de data centers aquecido, o Gartner recomenda que as organizações apliquem os conceitos de cloud no data center do futuro e invistam em infraestrutura para aumentarem a agilidade aeficiência do ambiente.

Folha: A insustentável leveza do Gigabyte - 16/04/2012:


O tipo é cada vez mais comum: informado e consciente, preocupado com o descontrole da poluição e dos impactos ambientais, um dia se incomoda com a passividade generalizada e procura tomar atitudes que, mesmo pequenas em sua escala, tem a intenção de mudar o mundo. "Se cada um fizer a sua parte" - diz, orgulhoso - "juntos provocaremos um grande impacto". A nobreza de suas intenções é inspiradora, ainda mais quando envolve uma razoável cota diária de sacrifício. Ir de bicicleta para o trabalho em uma cidade acidentada, esfumaçada, agressiva e perigosa como São Paulo, não é nada fácil. O mesmo pode ser dito do esforço empenhado em cálculos de impacto e na escolha dos produtos a restringir em seu cardápio e vestuário.

Ao contrário dos ambientalistas de épocas passadas, essa atitude sutil e serena de resistência não faz dos novos ativistas "ecochatos" ou hippies isolados. Por mais que seu discurso seja levemente panfletário, não se pode dizer que esses orgulhosos cidadãos estejam desconectados, ultrapassados ou alheios ao que se passa com o resto da sociedade. Como todo mundo, eles também jogam videogames, baixam filmes, ouvem rádio online e usam a Internet em parte significativa de seu cotidiano.

A mensagem que costumam passar lembra que todos estamos conectados, em um sistema fechado, interligado em rede, do qual não há saída. São comuns as referências ao pensamento dos antigos que até há pouco tempo acreditavam que florestas, ar, oceanos, diversidade, água e combustíveis durariam para sempre e, nessa inocência, colocaram parte significativa de nosso ambiente em risco. Não há como negar a razão de seus argumentos. Sua atitude, no entanto, pode estar um pouco equivocada.

Há cerca de quatro anos, em uma das conferências TED, o empreendedor e investidor Jay Walker fez uma apresentação, como muitas nesse tipo de evento, confusa e impactante. Ela teria tudo para ser esquecida até que, em seu final, o apresentador mostra uma pedra de carvão e diz para a plateia que aquele era o custo energético de cada megabyte transferido na rede.

O número, é claro, é uma estimativa. Mas está longe de ser exagerado. A configuração dos data centers e de cada máquina intermediária entre o disco rígido que armazena o conteúdo e o PC, tablet ou smartphone que o consome varia muito, a ponto de ser impossível estimar o custo energético real de cada transferência. Uma coisa, no entanto, é certa: ele está longe de ser gratuito.

À medida que diminuem os custos de processamento, armazenamento e transmissão de dados, a ideia de uma rede mundial de conteúdo a custo zero se torna cada vez mais comum, varrendo para debaixo do tapete a percepção de que cada bit de informação está efetivamente armazenado em um computador em algum lugar do mundo. E que esse computador esquenta e consome uma energia limitada, poluente (boa parte dela é gerada por usinas termelétricas) e, acima de tudo, finita.

A "nuvem" é pesada, quente e faminta. Ela vai consumir boa parte dos Gigawatts produzidos em Itaipu e Belo Monte, em parte para transferir músicas e vídeos de gatinhos dormindo. Se a estimativa de Jay Walker estiver correta (ela me parece tímida), cada megabyte transferido queimaria 10g de carvão nos EUA, o que significa seis ou sete vezes esse volume para passar por todos os intermediários até chegar aqui. Assumindo que a estimativa do Google que cada página web tem o tamanho de 300KB, três páginas - ou o envio de um e-mail - são o necessário para gastar essa quantia. Seguindo o raciocínio, cada gigabyte transferido queimaria um saco de carvão de dez quilos, um DVD baixado garantiria um bom churrasco e uma série de TV de várias temporadas pode equivaler a um pequeno incêndio. Sem considerar, é claro, o custo energético de ar condicionado, máquinas de suporte e do PC que fica ligado por um bom tempo a transferir e armazenar todos esses dados.

Os problemas de aquecimento global, crise energética e escassez de água são muito mais complexos e interligados do que aparentam. Pequenas atitudes, quase sem esforço, estão ao alcance de todos: armazenar em servidores remotos apenas o que for necessário, evitar o consumo de conteúdo online e, sempre que possível, estimular o empréstimo. Em outras palavras, usar a rede para o que for essencial, e desligá-la sempre que possível. Até porque boa parte da energia usada para alimentar os pequenos luxos e comodidades tecnológicas dos dois bilhões de pessoas conectadas é finita e de grande impacto ambiental.

PC WORLD: McAfee Internet Security 2012: Proteção desigual e baixo desempenho





Pacote se sai bem na hora de impedir que malware infecte seu PC, mas derrapa na remoção de ameaças e afeta demais o desempenho do micro




O McAfee Internet Security 2012 (R$ 95,20 por uma licença válida por um ano, para até três PCs) foi o último colocado em nosso comparativo 2012 de 14 pacotes de segurança. Apesar da classificação ele se saiu bem em algumas áreas, mas o comportamento inconsistente que causou sua ruína em meio a um grupo extremamente competitivo de softwares.

Primeiro as boas notícias: o pacote da McAfee se sai muito bem na hora de detectar malware antes que ele infecte seu PC. Ele bloqueou 96.2% de todas as amostras de malware desconhecido em nossos testes no muindo real, um resultado um pouco acima da média em comparação aos outros pacotes que analisamos neste ano. E a detecção de 99.9% das amostras de malware conhecido foi o segundo melhor resultado que vimos neste ano. A marca de três falsos positivos (em uma amostra de 250 mil arquivos) não é a melhor que já vimos (muitos pacotes chegaram a zero), mas ainda assim é muito boa.

Mas embora o pacote da McAfee tenha mostrado um bom resultado nestes testes, a coisa muda de figura depois que o malware se instala em seu PC. O Internet Security 2012 detectou 80% das infecções ativas em nossa máquina de testes, um resultado abaixo da média. Apenas um outro pacote em nosso comparativo foi incapaz de detectar todas as infecções.

Além disso, o produto só conseguiu neutralizar as infecções em 70% dos casos, o segundo pior resultado neste teste. Em comparação, 9 dos 14 pacotes de segurança que testamos conseguiram desabilitar todas as infecções em nossa máquina de testes. Dito isto, o pacote da McAfee conseguiu eliminar todos os trações de uma infecção em 60% dos casos, um resultado ligeiramente acima da média.

O Internet Security 2012 também sofreu em nossos testes de desempenho, produzindo um impacto acima do normal no funcionamento de nosso PC. No teste de instalação de aplicativos ele adicionou 1,5 minutos ao tempo necessário para completar a tarefa (o segundo pior resultado), e na cópia de arquivos através da rede adicionou 2 minutos ao tempo, suficiente para garantir apenas o oitavo lugar.

A velocidade de varredura também não foi muito boa. A varredura sob demanda, iniciada manualmente pelo usuário, levou 1 minuto e 51 segundos para analisar um conjunto de 4.5 GB de arquivos, o décimo melhor resultado nessa categoria. Já a varredura no acesso, que é feita sempre que um arquivo é aberto ou salvo, desapontou muito mais: foram necessários 7 minutos e 4 segundos para completar a tarefa, novamente o segundo pior resultado entre todos os produtos analisados.

COMPUTERWORLD: Quais cuidados devem ser considerados na estratégia de nuvem?

Quais cuidados devem ser considerados na estratégia de nuvem? 

O instituto de pesquisas Gartner indica que companhias precisam considerar desafios e oportunidades do modelo.








Embora o potencial da computação em nuvem seja impressionante, dizem especialistas, o impacto e o nível de aprovação ao longo do tempo são incertos e requerem revisões frequentes da estratégia empresarial.

Nesse sentido, o instituto de pesquisas Gartner identificou cinco tendências de cloud computing que estão ganhando força e que podem se fortalecer nos próximos três anos. Para passar por essas fases com tranquilidade, as companhias devem desenhar um planejamento afinado com o novo universo. 

Por exemplo, a nuvem traz uma série de benefícios, como redução de custos, maior flexibilidade e complexidade baixa, além de direcionar recursos para áreas de maior valor agregado, reduzindo os riscos. 

No entanto, esses benefícios potenciais devem ser cuidadosamente examinados e comparados com os desafios e ameaças, incluindo segurança, falta de transparência, preocupações com o desempenho e a disponibilidade, restrições sobre as necessidades de licenciamento e integração. Esses problemas criam um ambiente complexo que devem ser levados em consideração ao avaliar a nuvem.

Segundo o Gartner, que a cloud híbrida é um imperativahoje. O modelo refere-se à coordenação e à combinação de computação em nuvem terceirizada (pública ou privada) e a infraestrutura interna da empresa. Ao longo do tempo, a nuvem híbrida pode resultar em um modelo unificado em que há uma cloud formada por várias plataformas que podem ser usadas, conforme necessário, com base na mudança de requisitos de negócios.

O instituto de pesquisas recomenda que as organizações tenham em mente que quando os aplicativos são executados em nuvens públicas devem ser estabelecidas diretrizes e padrões para determinar como esses elementos se combinam com os sistemas internos para formar um ambiente coerente que oferece um bom desempenho.

Ajuda de quem entende

A escolha de cloud implica na adoção de um suporte. Um integrador de serviços em nuvem (MMS) é um provedor de serviços que desempenha um papel intermediário na migração para a computação em nuvem e pode ajudar no momento pós-implementação. 

O interesse no conceito aumentou no ano passado e o Gartner espera que essa tendência cresça nos próximos três anos, à medida que as empresas buscam mais serviços de nuvem sem envolver o departamento de TI.

As empresas também não devem se esquecer de migrar, na primeira oportunidade que tiverem, as cargas de trabalho de infraestrutura existente para a nuvem. Essa abordagem pode trazer benefícios quando a organização tem exigências de recursos variáveis. 

No entanto, para explorar plenamente o potencial de um modelo de nuvem, as aplicações devem ser concebidas com características, limitações e oportunidades de um modelo de nuvem em mente. O instituto de pesquisas recomenda que as empresas olhem para além da migração de cargas e que elas aproveitem todo o potencial da entrevista de aplicativos no modelo.

Com o mercado de data centers aquecido, o Gartner recomenda que as organizações apliquem os conceitos de cloud no data center do futuro e invistam em infraestrutura para aumentar a agilidade a eficiência do ambiente.

Olhar Digital: SAP quer roubar liderança da Oracle em soluções para bancos de dados

Olhar Digital: SAP quer roubar liderança da Oracle em soluções para bancos de dados:


Empresa investirá em ferramentas para desenvolvimento 
de aplicações compatíveis com o Hana 


Com quase 40 anos de vida, a SAP, gigante dos softwares empresariais, planeja fazer investimentos de US$500 milhões (cerca de R$900 milhões) para que novos clientes sejam atraídos para sua mais nova ferramenta de processamento de dados, o Hana. Com isso, a empresa quer tomar a liderança da Oracle, maior empresa no ramo.

A ferramenta da SAP é feita para analisar informações operacionais e dados não estruturados, como e-mails e redes sociais. Com o Hana, a empresa diz que o processo se torna quase 100 vezes mais rápido que o atual, pois é baseado na memória interna do PC, ao invés de ser baseado em discos rígidos.

Os planos incluem um investimento de US$337 milhões (cerca de R$606 milhões) em serviços de consultoria para os clientes, além de política de reembolso de até 18 meses. Segundo a Bloomberg, a SAP também colocará mais US$155 milhões (cerca de R$279 milhões) para incentivar o desenvolvimento de aplicações compatíveis com o Hana.

Vishal Sikka, responsável pela área de tecnologia e inovação da empresa, diz que esses incentivos "dão um forte sinal para os consumidores e para o mercado que estamos profundamente engajados em desenvolver essa área".

Até 2015, a SAP planeja levar sua receita, que em 2011 foi de 14,2 bilhões de euros, para o alto, chegando a mais de 20 bilhões de euros: "Estimamos que aSAP possa dobrar sua receita esse ano com o Hana, um dos principais produtos de seu portfólio", diz Rick Sherlund, analista da Nomura Equity Research. Ele diz, ainda, que a receita da ferramenta pode chegar a 500 milhões de euros em 2012.

Gizmodo Brasil: No futuro, a Internet será feita por partículas quânticas

No futuro, a Internet será feita por partículas quânticas





Gosta de física quântica? E de computadores quânticos? Ou computadores quânticos em umdiamante? Então você deveria saber que pesquisadores do Instituto Max Planck conseguiram uma forma apropriada de criar uma rede quântica na qual um fóton é trocado entre dois átomos. Futuro!

De acordo com a Time, os dois átomos transmitem o fóton através de um cabo de fibra ótica de 60 metros e diz-se ter sido o primeiro a enviar, receber e armazenar informação sem falhas.

“O professor Ignacio Cirac, diretor do MPQ, propôs o framework para o experimento. Na rede quântica do seu time, átomos rubídios individuais foram apresentados entre dois espelhos altamente reflexivos colocados a menos de um milímetro de distância — uma configuração conhecida como ‘cavidade ótica’. O time então disparou um laser em um dos átomos, calibrado de forma a não desestabilizá-lo, mas sim fazê-lo emitir um fóton, o qual, então, atravessou os 60 metros da fibra ótica para ser absorvido pelo segundo átomo, transferindo a informação quântica do primeiro átomo.”
Pelo fato de bits quânticos serem capazes de computador zeros e uns ao mesmo tempo, os bits só precisam trocar o status dos seus estados, o qual os pesquisadores dizem ser uma maneira mais rápida e elegante de transferir dados. Eles inclusive acreditam que uma Internet totalmente quântica seja possível. Quero o futuro agora, tem como? [Time]

Webinsider: Use o BYOD para gerenciar dispositivos móveis nas empresas


16 de abril de 2012

Com o conceito Bring Your Own Device os profissionais têm maior liberdade e flexibilidade para utilizar os hardwares e softwares mais adequados às suas necessidades do dia-a-dia.

Não seria mais prático se você pudesse escolher o notebook ou tablet da sua preferência para usar no trabalho, com as características de hardware e o sistema operacional que melhor lhe conviesse? Pois é, esta comodidade já existe em muitas empresas, principalmente as da tecnologia.

E cada vez mais comum ver pessoas trabalhando com Mac, Linux, IPAD, Android, etc. em ambiente corporativo, no qual o padrão seja o Windows. O conceito chamado BYOD (Bring Your Own Device) traz a praticidade para as empresas não só por permitir que seus funcionários usem seus dispositivos móveis para o trabalho, mas por oferecer uma possibilidade de redução de custo e simplicidade em sua estrutura de suporte técnico. Parece estranho, mas se um funcionário compra seu próprio equipamento para realizar suas atividades de trabalho a empresa não precisa gastar dinheiro com a aquisição de um computador para aquele funcionário. Por meio do BYOD é possível gerar comodidade e flexibilidade para os funcionários sem aumentar custos.

Uma dúvida pertinente surge sobre o suporte: e se o equipamento der algum tipo de problema e não funcionar adequadamente?

Normalmente quem quer trabalhar com seu próprio equipamento é um usuário diferenciado, mais exigente que os demais e, na maioria das vezes, tem um conhecimento em informática superior à média. Por isso, a responsabilidade por se adequar e estabelecer a comunicação com os softwares e aplicativos corporativos é do próprio usuário. E quando esta responsabilidade é do pessoal de TI, os próprios funcionários os municiam com informações que garimparam arduamente na internet para resolver problemas de compatibilidade.

Imagino que agora você esteja pensando: “se o computador do usuário não precisa de manutenção por parte da empresa que ele trabalha, o pessoal de suporte vai ter menos trabalho, vão acontecer menos aberturas de chamado, certo?”. A conclusão é esta mesmo. Além de serem capazes de resolver vários problemas sozinhos, ainda ajudam seus colegas que querem usar seus próprios equipamentos. Criando assim uma comunidade colaborativa dentro da própria companhia.

Permitir o acesso à rede corporativa utilizando equipamentos e/ou sistemas operacionais não padronizados pode parecer uma grande desorganização e falta de controle. Este é um cuidado que deve ser tomado em função do risco que equipamentos fora da administração da empresa representam. Segundo a ISO 27001 (norma da ISO com foco em segurança), os riscos devem ser tratados por meio de controles, com o objetivo claro de reduzir a possibilidade de um impacto danoso. Na adoção do BYOD, é fortemente recomendável avaliar os riscos e as brechas de segurança que podem ser criadas diante desta realidade, mais flexível que os modelos tradicionais de estrutura computacional oferecem.

Hoje, o mercado de TI oferece tecnologia para estabelecer mecanismos de controle de acesso capazes de identificar quem está acessando a rede, qual o tipo de computador esta sendo utilizado e onde. Muitos destes acessos são realizados através de redes wireless, nas quais são necessárias controladoras wireless, IPS tradicionais, IPS específicos para RF (Rádio Frequência), sistemas de avaliação de interferência eletromagnética.

Além destes controles, devem ser avaliadas também alternativas de MDM (Mobile Device Management). Este tipo de controle, com foco em dispositivos móveis, é um grande aliado dos administradores de rede para aplicação de políticas de segurança de acordo com as características de cada tipo de acesso para smartphones e tablets. É possível, inclusive, endereçar uma grande preocupação, que é o armazenamento de informações corporativas em equipamentos pessoais.

Virtualização de equipamentos também é uma alternativa, o dispositivo móvel acessa um servidor no qual as informações são processadas, não havendo necessidade de armazenamento local. Todas as informações e aplicações ficam no servidor corporativo. Outro recurso já disponível é a possibilidade de apagar remotamente os dados ou aplicações em um dispositivo móvel, seja por erros de senha, aplicação modificada ou por comando remoto do administrador de forma centralizada.

Não adianta “remar contra a maré”. O BYOD já está acontecendo e esta tendência vai ganhar cada vez mais espaço nas empresas. O quanto antes se preparar para o tema, conhecendo as formas de gerenciar e controlar este cenário, mais rápido e com mais segurança este assunto será tratado. O grande desafio é prover comodidade e produtividade aos funcionários, com seus equipamentos ou brinquedos pessoais seguros. Esta combinação tem tudo para dar certo.[Webinsider]