sexta-feira, 25 de janeiro de 2013

COMPUTERWORLD: Brasil e União Europeia assinam novo acordo de cooperação em TI


Países querem fortalecer e expandir a aliança ao explorar e identificar atividades em áreas de interesse mútuo.


O Brasil e a União Europeia (EU) assinam hoje (24/1) novo acordo na área de ciência, tecnologia e inovação (CT&I) durante a 6ª Cúpula Brasil-União Europeia, que será realizada em Brasília. O acordo, denominado arranjo de implementação, tem como objetivo aprofundar e ampliar a cooperação do Ministério da Ciência e Tecnologia (MCTI) com o Joint Research Centre (JRC), departamento da Comissão Europeia. 

A parceria em CT&I entre Brasil e UE teve início em 2007. Desde então, foram criados grupos temáticos para discutir a cooperação nas áreas de energia, TICs, nanotecnologia, saúde, alimentos, agricultura e biotecnologia, meio ambiente, transportes, infraestrutura de pesquisa, inovação e tecnologias sociais.

O novo acordo concretiza a vontade política de fortalecer e expandir a cooperação, propondo explorar e identificar atividades em áreas de interesse mútuo. A entidade da UE reúne sete institutos de pesquisa em quatro países – Bélgica, Itália, Holanda e Espanha – e é considerada referência para os países do bloco europeu.

Segundo reportagem da Agência Brasil, a intenção do arranjo de implementação é identificar a melhor estrutura de gestão para as ações a implementar, incluindo os recursos financeiros necessários para execução das metas. Um grupo de coordenação vai conduzir as ações propostas e elaborar um roteiro sobre as atividades prioritárias de cooperação e meios a serem utilizados, incluindo intercâmbio de equipes, compartilhamento mútuo de instalações de pesquisa e transferência de tecnologias, são outros pontos inclusos no acordo.

Prevenção de desastres e gestão de crises; mudanças climáticas e gestão sustentável de recursos naturais; energia, incluindo bioenergia, smart grids, energias renováveis e segurança nuclear; segurança alimentar; bioeconomia, incluindo biotecnologia; tecnologias de informação e comunicação (TICs), incluindo geoinformação e aplicações espaciais; e nanotecnologia estão entre as áreas de interesse.

(*) Com informações da Agência Brasil

Convergência Digital: Anatel nega pedido do NIC.br e mantém modelo de medição


A PriceWaterhouseCoopers, em parceria com a inglesa SamKnows, vencedora da licitação realizada pelas teles para ser a entidade aferidora da qualidade da Internet, seguirá como responsável pelo processo de medição da qualidade da banda larga no Brasil.

A Anatel, com relatoria do conselheiro, Marcelo Bechara, até aceitou a análise do pedido de revisão feito, em abril, pelo NIC.br, órgão sem fins lucrativos, que contestava o processo de seleção, mas descartou a existência de irregularidades. Mas negou a possibilidade de mudar o modelo. 

De acordo com o conselheiro Marcelo Bechara, na reunião semanal do Conselho Diretor da Anatel, realizada nesta quinta-feira, 24/01, as teles realizaram a contratação por meio de RFP - termo de referência para contratação de fornecedor, com as regras publicadas e respondidas aos interessados. 

Bechara admitiu que o NIC.br contestou as informações considerando-as 'furtivas e inconclusivas", mas alegou que a área técnica da agência e a própria Procuradoria do órgão regulador consideraram as respostas dadas como corretas para o processo. "A importância do NIC.br nos fez acatar o pedido de revisão, mas julgamos improcedente o pedido", concluiu Bechara. A decisão de manter o modelo e a fornecedora selecionada pelas teles foi aprovada por unanimidade pelos demais conselheiros. 

Em novembro do ano passado, a medição da velocidade - as teles têm de entregar, em média, 60% da que foi contratada pelo consumidor - começou a ser feita em em 11 estados, entre eles, Rio de Janeiro, São Paulo e Distrito Federal. As medições avaliarão as prestadoras do Serviço de Comunicação Multimídia com mais de 50 mil acessos: Oi, NET, Telefônica/Vivo, GVT, Algar (CTBC), Embratel, Sercomtel e Cabo Telecom. Passados dois meses e meio, até o momento, nenhum relatório foi divulgado pela agência. 

Para entender o processo de medição: na contratação de um plano de 10Mbps, a média mensal de velocidade deve ser de, no mínimo, 6Mbps. A velocidade instantânea - aquela aferida pontualmente em uma medição - deve ser de, no mínimo, 20% do contratado, ou seja, 2Mbps. Com isso, caso a prestadora entregue apenas 20% da velocidade contratada por vários dias, terá de, no restante do mês, entregar uma velocidade alta ao usuário para atingir a meta mensal de 60%.Esses percentuais valem até novembro, quando serão ampliados. 

Além da medição nos consumidores, a Anatel manteve também a aferição nos PTTs( pontos de troca de tráfego). Eles já estão sendo feitas - apesar do protesto das teles - com equipamentos de medição de redes sendo instalados nos 20 PTTs existentes no Brasil – todos eles administrados pelo CGI.br: Americana-SP, Belém-PA, Belo Horizonte-MG, Brasília-DF, Campina Grande-PB, Campinas-SP, Caxias do Sul-RS, Curitiba-PR, Florianópolis-SC, Fortaleza-CE, Goiânia-GO, Londrina-PR, Natal-RN, Porto Alegre-RS, Recife-PE, Rio de Janeiro-RJ, Salvador-BA, São Paulo-SP, São José dos Campos-SP, e Vitória-ES.

Acompanhe o voto do relator, conselheiro Marcelo Bechara: 

Histórico

O Núcleo de Informação e Coordenação do Ponto BR (NIC.br) fez sérias críticas à interpretação dada pelo Grupo de Implantação de Processos de Aferição de Qualidade (Gipaq) - responsável pelo processo de medição da banda larga - formado por representantes das principais operadoras e da Anatel, sobre até onde será feita a medição. Da forma como foi colocada no processo de seleção da aferidora, sustentava o órgão, a medição se dará dentro do sistema autônomo das prestadoras, o que permitiria às fiscalizadas interferir no resultado. 

O NIC.Br também questionou o software que está sendo utilizado para aferir os parâmetros de qualidade -o Speedtest (www.speedtest.net). Sozinho, alega a entidade, ele não atende o que está previsto na regulamentação da agência. Embora informe as velocidades de download e upload, além da latência bidirecional, é preciso rodar outro programa para que sejam medidos elementos como jitter e a taxa de perda de pacotes. 

*Com a colaboração de Luis Osvaldo Grossmann

Convergência Digital: CPqD investe em comunicação IP e firma parceria com a Datacom


CPqD investe em comunicação IP e firma parceria
com a Datacom. 

O CPqD firmou um convênio de cooperação tecnológica com a Datacom, fabricante gaúcha de equipamentos de comunicação de dados (switches e roteadores, entre outros) baseados em tecnologia IP. O foco da parceria é planejar e dar início à evolução de equipamentos e soluções nessa área para uma nova geração, tendo como base o protocolo aberto OpenFlow.

“Trata-se de uma parceria estratégica, que prevê vários planos de trabalho, visando o desenvolvimento de soluções e produtos no estado da arte da tecnologia em nível mundial”, afirma Hélio Graciosa, presidente do CPqD. “É também uma excelente oportunidade de avaliar e integrar a tecnologia de controle desenvolvida no CPqD, baseada no protocolo OpenFlow, com as soluções da Datacom”, acrescenta.

O primeiro plano de trabalho, definido na assinatura do convênio, consiste em um projeto piloto envolvendo a implantação de uma rede de teste baseada na tecnologia OpenFlow, com o objetivo de integrar as soluções do CPqD e da Datacom. Esse projeto servirá de base para desenvolvimentos futuros e, ainda, para a definição do direcionamento estratégico de soluções conjuntas CPqD e Datacom.

“Com a tecnologia OpenFlow, os clientes - operadoras de infraestrutura e provedores de serviços - passam a ter a capacidade de inovar, tanto na oferta de serviços e seus modelos de negócio como na operação de seus ambientes de redes, de acordo com suas necessidades”, explica Antonio Carlos Porto, presidente da Datacom.

A empresa já dispõe de alguns produtos com suporte a essa tecnologia e, a partir da parceria com o CPqD, deverá evoluir e ampliar sua linha de soluções baseadas em OpenFlow.

Mais do que isso, Paulo Roberto Cabestré, diretor da área de Redes Convergentes do CPqD, observa que essa parceria estratégica vai além da tecnologia OpenFlow. “Ela permitirá que a indústria brasileira - entre a qual se inclui a Datacom, em cooperação com o CPqD, atue de forma mais ampla e sinérgica em novos negócios que demandem soluções de redes convergentes”, enfatiza.

Convergência Digital: Empresas brasileiras aderem ao BYOD, mas pecam na definição da estratégia




Estudo elaborado pela Associação Brasileira de ebusiness (ebusiness Brasil) - com 200 líderes de empresas brasileiras - mostra que 48% das corporações vão permitir que seus funcionários usem dispositivos móveis pessoais no ambiente corporativo nos próximos dois anos. Também mostra que, hoje, 39% das organizações já permitem o BYOD ( Bring your own Device) e, por tabela, já contabilizam os ganhos dessa convergência.

O levantamento apura que os benefícios apontados pelos profissionais são: a mobilidade - com 78% das respostas; a liberdade na decisão do usuário em escolher o dispositivo (44%) e a redução de custos com dispositivos (42%). Dado importante do estudo: 38% admitiram o aumento na produtividade dos funcionários.

Mas nem tudo são flores. A pesquisa apura que 69% ainda acreditam que o uso de dispositivos móveis pessoais traz risco à segurança dos dados corporativos. E nesse ponto, um ponto falho da estrutura de TI: muitas organizações admitem que suas equipes não estão preparadas para atender os requisitos de proteção e de adoção de políticas de segurança da Informação.

A análise da ebusiness Brasil relata ainda que que a decisão de adoção do BYOD sofre pouca influência das áreas jurídicas e de Recursos Humanos (RH). Apenas 30% disseram ter alinhado a iniciativa da prática com estas áreas. Importante também perceber que 49% afirmam que a área de TI não costuma gerenciar a nova tendência. Apenas 34% disseram focar o gerenciamento somente na informação de dados como e-mails, documentos e afins. A pesquisa foi realizada em novembro de 2012 e a maioria dos entrevistados trabalha em empresas de grande porte, com receita acima de R$ 300 milhões, do segmento industrial (57%).

Olhar Digital: Anatel abre caminho para proteger PNBL de interferências



A Anatel iniciou nesta quinta-feira, 24, ações de remanejamento das faixas que são destinadas ao Programa Nacional de Banda Larga.

De acordo com a agência, o conselho pediu a alteração do uso das faixas pelo Serviço Limitado Privada (SLP) dos Aeroportos Nacionais.

A digitalização da faixa permitirá o melhor uso do espectro e uma convivência entre o SLP e a oferta de banda larga na faixa de 450MHz, que terá de ser prestado pelas teles, em função do leilão do 4G.

Ocorre que os canais usados pela Infraero estão sobrepostos à banda recentemente licitada – de fundamental importância para atingir os objetivos do PNBL. 

COMPUTERWORLD: Presidente do Santander anuncia investimentos em data center no Brasil



O Santander vai investir 3 bilhões de reais no Brasil em 2013 em ampliação de sua operação no País. Uma parte desses recursos será destinada à construção de um centro de dados em Campinas (SP), que deverá ser inaugurado até 2014.

Os novos investimentos do banco Santander no mercado brasileiro foram anunciados pelo presidente mundial do grupo, Emilio Botín, durante encontro com a presidente Dilma Rousseff. Botin esteve na última terça-feira (22/01), no Palácio do Planalto, em Brasília.

Segundo Botin, os 3 bilhões de reais incluem a ampliação do número de escritórios e agências no País, de terminais de autoatendimento e a construção do centro de dados. 

Durante conversa com Dilma, o executivo falou sobre a situação econômica da Espanha e da Europa. Ele disse que o quatro hoje está “bem melhor” que em junho de 2012, quando se encontraram pela última vez.

Data center verde

O Santander anunciou em abril de 2010 o projeto de um centro de tecnologia, pesquisa e processamento em Campinas, onde abrigará dois data centers. A obra está localizada no parque tecnológico da Companhia de Desenvolvimento do Pólo de Alta Tecnologia de Campinas (CIATEC). 

De acordo com o banco, o complexo foi planejado com base nos conceitos de TI verde e promete uma economia de 30% de energia em relação aos tradicionais.

*Com informações da Agência Brasil

UOL: Justiça francesa decide que Twitter deve identificar usuários de posts racistas



Associação pressionou o Twitter para que o microblog fizesse um controle mais rígido das mensagens de ódio publicadas no serviço relacionadas com a hashtag unbonjuif (''um bom judeu'') 

Um tribunal na França decidiu nesta quinta-feira (24) que o Twitter deve entregar às autoridades dados que identifiquem autores de posts racistas e antissemitas no microblog.

Segundo a "AFP", o caso que levou à decisão do tribunal francês ocorreu em outubro de 2012. A União Francesa de Estudantes Judeus (UEJF, na sigla original) denunciou uma série de mensagens ofensivas que feriam leis do país contra discursos de ódio.

A UEJF pressionou o Twitter para que o microblog fizesse um controle mais rígido das mensagens de ódio publicadas no serviço relacionadas com a hashtag unbonjuif ("um bom judeu").

Apesar de o Twitter ter removido algumas das mensagens antissemitas, o UEFJ entrou com uma ação contra a companhia para que ela revelasse quem eram os autores dos posts. O tribunal em Paris ordenou então nesta quinta-feira que as identidades fosse reveladas.

Ataques contra judeus

A decisão do tribunal francês ocorre após o Serviço de Proteção à Comunidade Judaica (SPCJ, na sigla original) revelar que atos antissemitas aumentaram 45% desde o início de 2013.

A organização não governamental atribuiu o aumento desses atos a um ataque feito em 2012 na cidade de Toulose, onde um rabino, três crianças judias e três soldados franceses. O suspeito, Mohamed Merah, é um extremistas islâmico.

Bahia Press: Site de compra lança serviço que compara valor de frete de acordo com o CEP



A Buscapé lança no mercado dois novos serviços: “Calcular Frete” e “Comprar Agora”. Os dois serviços tem como objetivo acelerar o processo de compra pelo site. As duas novas ferramentas estarão disponíveis no site a partir das 14 horas desta quinta-feira (24).Segundo Romero Rodrigues, CEO da empresa, o recurso Calcular Frete permite capturar os preços das entregas pelas empresas e adicionar no valor final do produto já na página de comparação de preços. O preço comparado receberá o valor do frete de acordo com a localização do usuário. Rodrigues lembra que, dependendo da localização do comprador, o preço do produto pode receber uma taxa de até 100% do valor original do produto. Desenvolvido pela equipe do Buscapé em um ano e meio, o serviço já conta com 1070 lojas cadastradas, que disponibilizam o custo do frete na ferramenta de comparação de preços. Compra Direta: Outro serviço que também está disponível no Buscapé é o Comprar Agora, que reduz o número de cliques para efetivar uma compra. Com um cadastro no site do Buscapé, feito manualmente ou com as informações por meio do Facebook, o usuário não precisa entrar no site do varejista para terminar o processo de aquisição de produtos.Ao clicar em “Comprar Agora”, o internauta será enviado para a finalização da compra, precisando somente inserir os dados de segurança do cartão de crédito. O CEO da empresa afirma que os serviços do Buscapé chega no momento de franca ascensão do e-commerce no País, segmento que deve faturar um total de R$ 28 bilhões em 2013.

COMPUTERWORLD: Os 10 melhores provedores de armazenamento na nuvem, segundo o Gartner


Aproximadamente 19% das organizações ao redor do mundo estão utilizando a computação na nuvem para produção de aplicações, enquanto outros 20% contratam serviços públicos de armazenamento na cloud, segundo estudo do Gartner.

Os resultados mostram que a nuvem oferece grandes oportunidades de negócios, especialmente para serviços de armazenamento. O instituto de pesquisas estima que as empresas gastaram 109 milhões de dólares com a computação na nuvem em 2012, um crescimento de 20% em comparação com o ano anterior. 

Ao mesmo tempo, a indústria de serviços de nuvem é grande e conta com muitos provedores com estratégias agressivas para conquistar clientes. Para orientar as companhias na hora de selecionar seu parceiro, o Garnter elegeu os dez principais fornecedores de serviços de armazenamento, levando em consideração a capacidade deles de atendimento aos clientes.

- Veja a seguir essa listagem com prós e contras da oferta de cada um em ordem alfabética.

Amazon Web Services


Como em muitos outros aspectos da computação em nuvem, a Amazon Web Services é considerada um líder no mercado de armazenamento em nuvem. A empresa é um player precoce e agressiva no mercado. Sua oferta acaba movimentando a concorrência, segundo o Gartner. Seu preço é "benchmark da indústria." A oferta Simple Storage Service (S3) é o serviço básico de armazenamento, enquanto que Elastic Block Storage é para grandes volumes.

A AWS também inova. No início deste ano, anunciou o Glacier, um serviço de armazenamento de arquivos de longo prazo a baixo custo. Apresentou também recentemente na sua primeira conferência de usuários o Redshift, oferta de armazenamento baseado em dados na nuvem.

Mesmo assim, AWS tem desafios. Apesar de contar com uma ferramenta para vincular os dados que estão nas instalações das empresas em nuvem, chamada de AWS Storage Gateway, a capacidade de criar arquiteturas híbridas com essa funcionalidade ainda está em andamento, diz o Gartner. 

A AWS continua lançando produtos e serviços inovadores para manter sua liderança no mercado. Conta também com ofertas orientados para determinados setores como de governo com o seu serviço GovCloud.

AT&T


O serviço da AT&T Synaptic está alinhado com o de armazenamento EMC Atmos, utilizado como instalações de sistemas de armazenamento. Isso cria uma oportunidade para a AT & T vender soluções para a base sólida de clientes da EMC e oferecer recursos de nuvem híbrida.

O Gartner observa que este produto tem focado principalmente pequenas e médias empresas (PMEs). O AT & T Synaptic já abrange várias regiões e a companhia planeja expandir o serviço globalamente. A Europa é a sua próxima parada. Os clientes que utilizam os serviços de VPN da AT & T são liberados dos custos de entrada na nuvem.

Google Cloud Storage


Lançado em 2010, Google Cloud Storage é o produto de armazenamento subjacente para outros produtos e serviços de nuvem do Google. A oferta inclui o Google App Engine, plataforma de desenvolvimento de aplicativos, Google Compute Engine e BigQuery, que são máquinas virtuais baseadas em cloud e uma ferramenta de análise para Big Data. Os clientes acessam o Google Cloud Storage através de uma API . O serviço está disponível nos EUA e Europa.

Porém, o que está impedindo a plataforma de armazenamento em nuvem do Google de ganhar mais presença no mercado é a falta de suporte direcionado a clientes corporativos, afirma o Gartner. Isso faz com que o Google Cloud Storage seja ideal para clientes sofisticados que querem criar e gerenciar a implantação, bem como para desenvolvedores que procuram alta capacidade de armazenamento para aplicativos do Google.

HP


A HP anunciou a versão beta pública de sua plataforma para armazenamento em nuvem e estreou em maio de 2012. O projeto foi concebido para trabalhar com a rede de computadores e distribuição de conteúdo (CDN) e se associou recentemente com a Akamai. A tecnologia é baseada em OpenStack e a HP oferece suporte via chat 24/7 com garantia de disponibilidade de 99,95%. 

"Entre os fornecedores de armazenamento na nuvem com base em OpenStack, a HP está bem posicionada para entender as necessidades de TI dos clientes. Isso em razão de a fabricante ter uma extensa linha de hardware, software e opções de serviço", avalia o Gartner. 

Mas como o Object Storage Cloud é novo, a HP deve evoluir e aperfeiçoar as ofertas de arquitetura e serviços. O sistema replica automaticamente os dados através de três zonas de resiliência disponibilidade (os clientes podem escolher o que fazer na nuvem da Amazon), e a HP processa as informações em seu hardware e em nuvem pública nas instalações de clientes, possibilitando que a configuração de rede híbrida se torne mais fácil.

IBM


O armazenamento em nuvem da IBM é parte de sua oferta empresarial SmartCloud, que inclui outros serviços, tais como o desenvolvimento de aplicativos baseados em nuvem e infraestrutura. 

Para o Gartner, a desvantagem principal da IBM é a falta de integração entre os vários aspectos da oferta SmartCloud. Por exemplo, a IBM vende sua solução de backup em nuvem e de recuperação, mas esses serviços não utilizam o Object Storage SmartCloud em seu servidor

Talvez essa integração não aconteça porque a IBM está associada com a Nirvanix, outro fornecedor de armazenamento em nuvem para executar o armazenamento de objteto do SmartCloud armazenamento. 

O Gartnert acredita que a heterogeneidade desses serviços sob o guarda-chuva da IBM SmartCloud poderia criar "silos de capacidades" para vários serviços. Porém, observa que a IBM está comprometida em integrar seus produtos e serviços. Sua experiência em vender para departamentos de TI de grandes empresas dá uma vantagem significativa para que se torne um player importante no mercado de armazenamento corporativo na nuvem.

Internap 


A história da Internap é de um provedor de serviços gerenciados que recentemente tornou-se também um player em nuvem. Seu sistema de armazenamento na cloud é o AgileFiles, baseado em plataforma OpenStack Swift e está disponível nos EUA, Europa e Ásia, com planos de expansão futura. 

Para diferenciar seu serviço, a Internap tentou separar os recursos avançados de rede em serviço como Manager Internet Route Optimizer (MIRO), que analisa o desempenho das formas possíveis de fornecer e escolher melhor conteúdos. Sua maior limitação, de acordo com o Gartner, é ainda a tímida presença no mercado. 

Microsoft


Depois da Amazon Web Services, o Windows Azure Blob Storage da Microsoft, é segundo previsões do Gartner, o segundo serviço de armazenamento mais utilizado. Atualmente, a tecnologia conta com mais de um bilhão de objetos e cresce 200% ao ano. O produto dá suporte para uma ampla gama de recursos, incluindo armazenamento de objetos, tabela, SQL Server e uma rede de entrega de conteúdo (CDN).

O armazenamento Blob Azure está numa verdadeira corrida para oferecer o menor preço, já que a Amazon e Google baixaram seus custos constantemente no ano passado. Seu objetivo é ser o mais competitivo entre os três. O Gartner chama a Microsoft de "rápida seguidora" das características da AWS. Suas opções de suporte atraem clientes de grandes empresas, de acordo com a consultoria, oferecendo uma equipe de apoio prático, baseado em prestações. 

A Microsoft recentemente expandiu sua oferta com a compra da StorSimple, fornecedor de armazenamento em nuvem.

Nirvanix


O fornecedor de armazenamento em nuvem Nirvanix é dedicado exclusivamente a este mercado. O Gartner avalia que o provedor é ideal para empresas que procuram as necessidades de armazenamento de dados intensivos. Entretanto, a consultoria considera inconvenientes para os clientes que procuram um provedor que oferece todos os cálculos em uma plataforma de armazenamento. 

Mas o Nirvanix tem algumas características atraentes, segundo o Gartner. O instituto de pesquisa destaca a capacidade do provedor de ter serviços de armazenagem público e ofertas mistas para instalações em companhias com opções suporte de alta qualidade. Apesar disso, pode não ser a opção para as PMEs, que preferem preços sobre a demanda.

Rackspace


O Rackspace é outro player importante no ecossistema de armazenamento em nuvem, com sua oferta Cloud Files, que conta com um robusto conjunto de serviços de apoio, incluindo infraestrutura e rede uma CDN alimentada por Akamai. 

Para atender as companhias que necessitam de armazenamento de alto desempenho, o produto do provedor é o Cloud Storage Block. O Rackspace trabalha duro no projeto de código aberto OpenStack e o andamento de seus projetos estão sendo monitorados de perto.

Por causa de seu trabalho no ambiente OpenStack, o Gartner avalia que os serviços públicos de armazenamento em nuvem do Rackspace integram muito bem com nuvens movidas pelo OpenStack, podendo criar cloud híbrida para os clientes.

Softlayer


O sistema de armazenamento CloudLayer da Softslayer é baseado na plataforma OpenStack Swift. O serviço acompanha uma variedade de outros oferecidos pelo Softlayer, incluindo computação e CDN. 

O Softlayer também tem uma oferta SAN com presença internacional. Possui centros de dados em sua sede em Dallas (EUA) em Amisterdã e Cingapura. Mas a falta de ciclos de implementação e suporte turnkey faz com que o produto não seja ainda muito procurado pelo mercado empresarial, afirma o Gartner.