segunda-feira, 6 de janeiro de 2014

COMPUTERWORLD: 2014, o ano em que o Big Data vai virar realidade nas empresas


Analistas preveem que a Terceira Platforma da TI ganhará impulso e iniciativas de análise de grande volumes de dados vão virar projetos reais

No ano em que o Brasil sedia a Copa do Mundo é esperado que Terceira Plataforma de Computação, pós mainframe e PCs, ganhe um grande impulso no País. Analistas de mercado e indústrias preveem que esse tema consumirá boa parte da agenda dos CIOs e fornecedores de TI no Brasil em 2014 pela pressão que as companhias estão enfrentando para ganhos de eficiência operacional e transformação dos negócios.

O setor espera investimentos maiores em projetos baseados nos quatro pilares desse conceito, que são cloud computing, mobilidade, Big Data e social business. Ao mesmo tempo, a disseminação dessas megatendências traz desafios para o Brasil. Entre os quais a necessidade de ampliação das redes de banda larga com conexões mais baratas, redução dos custos de data center, capacitação de mão de obra especializada e definição de questões regulatórias como na área de segurança.

A expectativa do mercado é que alguns desses entraves sejam resolvidos no próximo ano, quando o Brasil estará no centro das atenções do mundo por ser sede da Copa do Mundo e também por causa de outros eventos. Em 2014, o País terá duas eleições e em 2016 será o anfitrião das Olimpíadas, o que obrigará investimentos em novas tecnologias e infraestrutura para processamento.

Big Data em busca de seu espaço

Entre os quatro pilares da Terceira Plataforma o que está menos desenvolvimento no Brasil é o Big Data, por ainda ser um conceito novo. A sua proposta é ajudar as companhias a lidar com grandes volumes de dados, coletando informações em tempo real de redes sociais ou transações de negócios para tomada de decisão com mais assertividade. 

Porém, o conceito gerou confusão no mercado sobre o que são ferramentas analíticas de dados e analistas do Gartner acreditam que esse ruído vai atrasar o crescimento dos negócios nessa área e retardar os projetos de Big Data. O alerta é de João Tapadinhas, diretor de Business Intelligence do Gartner.

Tapadinhas afirma que há uma dificuldade por parte das empresas em entenderem sobre o uso correto das ferramentas analíticas, o que faz com o processo de decisão de compra se torne mais lento. Esse problema já existia antes da propagação do conceito de Big Data, segundo o analista do Gartner. “Muitas companhias fizeram investimentos em BI analítico e não tiveram o retorno esperado”. 

Como resultado disso, os negócios nessa área, que haviam registrado crescimento de 17% em 2011, fecharam com queda de 7% em 2012. Tapadinhas espera que as vendas de ferramentas analíticas voltem a crescer, chegando a patamares de 10% até 2016.

A indústria tem parcela de culpa pela confusão gerada no mundo das tecnologias de inteligência de dados. Mas o analista do Gartner percebe um esforço delas em tentar orientar o mercado. “Em 2015, a maioria dos fornecedores de ferramentas analíticas terá ofertas diferenciadas”, acredita Tapadinhas.

O presidente da Teradata Brasil, Sérgio Farina, confirma que muitas companhias ainda estão tentando entender como extrair valor do Big Data. “Estamos ainda em momento de laboratório”, diz, indicando que setores como varejo e telecom estão entre os segmentos interessados em se apoiar em ferramentas para análises de dados.

“Em 2013, percebemos que o mercado estava aberto a ouvir falar sobre Big Data no Brasil”, conta Ana Claudia Oliveira, gerente de vendas para América Latina da Pivotal, unidade de negócios da EMC. Ela acredita que 2014 será o ano em que as iniciativas vão se transformar em projetos reais. Seu argumento é de que as implementações são complexas, envolvendo mudança de processos, procedimentos, preparação do ambiente e também a capacitação de mão de obra. O cientista de dados é um talento escasso no Brasil.

Tendências para 2014, no mundo

A confusão à volta da ideia de Big Data vai restringir os gastos em BI e software de análise de dados levando o crescimento para um ritmo de apenas um dígito nos próximos dois anos, de acordo com o Gartner. No entanto, o enfoque dos CIOs em BI parece destinado a continuar diz a consultora.

“A medida que o custo de aquisição, de armazenamento e de gestão de dados continuar a cair, as empresas começarão a descobrir os efeitos práticos da aplicação de BI e análise de dados em um conjunto muito maior de situações“, afirma o vice-presidente do Gartner, Ian Bertram. Mas, apesar do forte interesse em BI e análise de dados, a confusão em torno da ideia de Big Data continuará inibindo os gastos com BI e software de análise.

Até 2016, os prestadores de serviços deverão concretizar negócios fechando a lacuna entre tecnologia de Big Data e os modelos de negócio. Com o amadurecimento crescente do conceito e a disponibilidade de novos produtos, as análise de Big Data vão se tornar mais relevantes, vulgares e, em última análise , extremamente perturbadoras.

Pesquisas recentes do Gartner mostram que apenas 30% das organizações têm investido em Big Data , dos quais apenas um quarto (oito por cento do total) o fizeram já em modo de produção . No entanto, alguns confusão e incerteza sobre a complexidade dos sistemas fizeram os ciclos de encomendas desacelerarem, enquanto os gestores do orçamento tentavam conjugar os melhores modelos de negócio com a ferramenta certa.

A análise de dados continuará a permanecer na vanguarda para os CIO, e os prestadores de serviços tentarão sedimentar grande parte da confusão. As diferença deixarão de existir completamente quando os serviços forem comercializados como produtos.

Além disso, haverá uma confluência de ciclos de maturação de tecnologia, previsto para 2016.

Na opinião da Information Builders, sete tendências vão marcar o universo dos dados já em 2014. 

São as seguintes:

1. O conceito Big Data perderá destaque
O termo Big Data não repercutirá tanto como nestes últimos anos, embora, evidentemente, os volumes de dados continuem a crescer. Até o fim de 2014 voltaremos a chamar o Big Data de dados históricos, ainda que continuemos a nadar em oceanos de informação. Ou seja, o crescimento dos dados continuará a ser um grande problema ou uma grande oportunidade, conforme seja encarado.

2. O ano das aplicações
Haverá um aumento significativo no uso de aplicações analíticas em comparação com o emprego de ferramentas tradicionais de análise de informação. Mas não serão as “aplicações analíticas” que os fabricantes desenvolvem e que trazem consigo modelos de dados padrão e pacotes de criação de relatórios universais.

Os analistas preveem o surgimento de aplicações como as que temos nos nossos smartphones: leves, interativas, orientadas para o negócio, fáceis de usar sem necessidade de formação especial. Aplicações dirigidas aos usuários finais em todas as áreas de negócio. Se forem obtidos resultados satisfatórios neste campo a partir de um ponto de vista de velocidade e flexibilidade, a sorte estará lançada para as ferramentas analíticas tradicionais, cada vez mais difíceis de justificar.

3. O advento das máquinas
Muitos especialistas que discutem sobre Big Data centram-se em dados desestruturados, criados pelos seres humanos, como os provenientes das redes sociais. Continuaremos a observar uma ênfase neste campo embora, já em 2014, comecem a ganhar mais relevância os dados criados pelas máquinas (incluindo os provenientes da Internet das Coisas), que crescerão mais rápido do que qualquer outra fonte de Big Data utilizada para fins analíticos. Esta realidade será especialmente evidente nos setores da indústria de manufatura e na área da saúde.

4. Gestor de dados será o próximo posto de trabalho em evidência
O cargo de “Data Scientist” (cientista de dados) deu o que falar em 2013 mas, tendo em conta que os volumes de dados continuarão a crescer no seio das empresas, a tendência é uma maior ênfase à gestão e supervisão da informação e não apenas à parte científica. Como consequência, emergirão novos postos de trabalho como o de “Data Steward” (gestor de dados) que, em última instância, não deixa de ser um profissional com perfil comercial que entenda os dados e saiba como qualificá-los no decurso de um projeto.

5. A ascensão da “data discovery” de dados integrados
As ferramentas de “data discovery” têm conquistado um êxito relevante na indústria durante os últimos anos, o que tem trazido consideráveis benefícios aos fornecedores deste tipo de tecnologia. Contudo, existe cada vez mais frustração entre os usuários de ferramentas estanques de “data discovery”. Muitos deles desconhecem como manipular os dados para obter os resultados esperados.

Em numerosas ocasiões, tem acontecido de os dados não serem provenientes do sistema adequado, conterem erros ou não se encontrarem no formato adequado para a sua integração com outros dados. Para evitar estes tipos de situações, os fornecedores deverão ser capazes de integrar os dados de confiança dos seus clientes com os programas de visualização existentes.

6. A qualidade dos dados, um problema em crescimento
O número de incidências em matéria de integridade da informação aumentará de forma significativa, especialmente no que se refere à análise de Big Data. Tendo em conta que cada vez mais organizações estão tomando as suas decisões estratégicas com base em dados puros, este problema tende a aumentar. Em 2014, o foco sobre a qualidade dos dados vai intensificar-se de maneira notável.

7. Convergência analítica
A convergência da análise preditiva, a “data discovery”, os sistemas de informação geográfica (SIGs) e outras soluções de Analytics comandarão a nova era da automatização analítica através da aprendizagem automática, o ETL inteligente e outros processos automatizados. Diferentes tecnologias estão voltando-se para a mesma direção, mas devem destacar-se dois exemplos.

Em primeiro lugar, os analistas estão deparando-se com a existência de grandes volumes de dados, inúteis em si mesmos e estão se vendo obrigados a extrair os subconjuntos mais relevantes para poder desenvolver algum tipo de análise. Graças à convergência da análise estatística com as funcionalidades de ETL e extração de dados, os analistas poderão fazer uso da precisão da análise preditiva para discernir quais conjuntos de dados devem extrair.

Por outro lado, as tecnologias de aprendizagem automática estão reunindo grandes conjuntos de dados e situando-os em grupos pré-agregados para que os cientistas de dados tenham a possibilidade de analisá-los de forma mais perfeita e rápida.

INFO: Nuvem cria sistema inteligente de tradução


Computação em nuvem: o site AA Translations
não depende mais de e-mails para compartilhar 
textos com clientes e tradutores

Com clientes em 20 países e mais de 700 tradutores freelancers em todo o mundo, o site inglês AA Translations percebeu, no ano passado, que precisava tornar os processos de tradução e revisão mais eficientes e fazer com que os textos editados pelos clientes chegassem num formato editável. Outro desafio era se manter fiel aos pedidos de mudança nos textos e gerir, de forma eficiente, o grande volume de e-mails e de transferência de arquivos trocados entre eles, os tradutores e os clientes.

Para sanar esses problemas, a empresa decidiu adotar um sistema baseado na nuvem. Com essa medida, passou a trocar mensagens, gerenciar atividades e promover videoconferências sem sobrecarregar a rede. As traduções, antes compartilhadas com clientes e freelancers por e-mails, também começaram a ser acessadas por todos da equipe por meio do novo sistema.

A ferramenta também permitiu que a empresa, que traduz mais de 7 milhões de palavras em 100 diferentes combinações de idiomas por ano, criasse contas gratuitas para que clientes e tradutores pudessem trabalhar em parceria. “Com a solução SmartCloud Engage, conseguimos agilizar todo o processo de revisão e reduzir o tempo dedicado a cada projeto”, diz Sonja Kirschstein, diretor de projetos em AA Translations.


Fonte: "Nuvem cria sistema inteligente de tradução." INFO. N.p., n.d. Web. 6 Jan. 2014. http://info.abril.com.br/noticias/ti/2014/01/nuvem-cria-sistema-inteligente-de-traducao.shtml.

COMPUTERWORLD: Graças à NSA, computação quântica poderá chegar à cloud computing


Tecnologia, que "é a corrida acadêmica do momento", supera a capacidade de processamento atual e tem uso em segurança, big data e analytics

PATRICK THIBODEAU


A Agência Nacional de Segurança americana (NSA) está gastando cerca de US$80 milhões em pesquisas básicas sobre computação quântica (quantum computing), segundo o jornal Washington Post. E o dinheiro de pesquisa da NSA poderá, em último caso, ajudar viabilizar comercialmente a tecnologia e, quem sabe, torná-la acessível em ambiente de cloud computing.

Isso é o que as agências do Departamento de Defesa fazem: eles investem seu dinheiro em pesquisas da indústria privada que parecem arriscadas a primeira vista mas, que se levarem a quebras de paradigmas tecnológicos, acabarão por beneficiar e muito o setor privado e as empresas.

A informação sobre a pesquisa em computação quântica da NSA foi publicada pelo jornal Washington Post depois de ter sido vazada por Edward Snowden. Embora possa criar outra situação desconfortável no estilo Big Brother para a NSA, a questão mais importante é se o governo, como um todo, está gastando o suficiente para pesquisar sobre computação quântica.

O que é computação quântica

Ainda considerada uma ciência experimental, a Computação Quânticaestuda o uso da Mecânica Quântica para realização de processamento computacional. Um computador normal usa linguagem binária na qual os bits são descritos como sendo 0 ou 1. Um computador quântico usa partículas subatômicas (qubits) que podem representar os estados 0 ou 1 ou ambos os estados simultaneamente.

Isso quer dizer que ao invés de fazer um cálculo depois do outro, o processamento pode aumentar exponencialmente. Dois qubits podem manter quatro estados distintos e 10 qubits podem manter 1.024 estados.

Há diferentes modelos para construir computadores quânticos, mas ninguém ainda concordou com um método único. É preciso um bocado de pesquisa para desenvolver um sistema que possa utilizar, por exemplo, o algoritmo de Shor (nome vem do pesquisador do MIT Peter Shor) que ajudaria a quebrar códigos de criptografia.

Os Estados Unidos não estão sozinhos nessa área. O governo do Reino Unido recentemente anunciou planos de investir US$ 444 milhões para criar cinco centros de computação quântica. O Canada Institute for Quantum Computing tem mais de dez anos de idade. China, Rússia e vários países da Europa estão todos investindo em pesquisas quânticas.

"É a corrida acadêmica do momento", diz Earl Joseph, um analista da IDC que lembra que as agências de defesa tem financiado esforços em torno da computação quântica por pelo menos uma década. "O objetivo é financiar pesquisa básica e fazer novas descobertas que podem ser úteis para a defesa e a segurança nacional", diz Joseph.

Christopher Willard, chefe de pesquisa do Intersect360 Research, vê os investimentos da NSA como um reconhecimento parcial de que a Lei de Moore está realmente no fim e que não mais está entregando melhorias regulares no ciclo de vida dos processadores.

Se a capacidade de montar sistemas de alto desempenho com tecnologias comerciais atuais está diminuindo,"o mercado deveria então entrar numa nova fase de experimentação e inovação em arquitetura de computadores", diz Willard. A computação quântica seria apenas um exemplo dessa mudança

É difícil estimar quanto os Estados Unidos gastaram até agora com pesquisas ligadas à tecnologia quântica porque o dinheiro para os investimentos vem de múltiplas agências e sua origem é censurada. Mas em maio de 2013, a Google, NASA e a associação Universities Space Research Association começaram uma pesquisa colaborativa e estão usando computadores quânticos desenvolvidos pela D-Wave Systems, a única fabricante mundial de tais computadores até agora.

Nuvens quânticas

O tipo de sistema que a D-Wave desenvolveu tem larga aplicação em problemas de big data e analytics e em áreas como aprendizado de máquina, diz Vern Brownell, CEO da D-Wave. Por exemplo, a Google estaria interessada em usar técnicas de inteligência artificial para desenvolver algoritmos melhores para busca de imagem. Isso também pode ser usado para modelagem de dados financeiros, pesquisa sobre câncer e solução de problemas lógicos difíceis, diz ele.

Segundo Brownell, a computação quântica deveria funcionar, em última instância, como um tipo de coprocessador e não como um substituto direto dos sistemas clássicos de computação. Na nossa "visão de futuro", diz Brownell, "haverá recursos de computação quântica disponíveis na nuvem". Será um tipo de campo de provas, disponível para qualquer tipo de desenvolvedor que queira resolver um problema particularmente difícil, como por exemplo aprendizado de máquinas.

Joseph, da IDC, também vê operações de computação quântica funcionando em conjunto com computadores convencionais - com potencial para ser um recurso poderoso de cloud computing. A computação quântica pode rapidamente prover espectros e probabilidades, mas para reduzir esses dados a uma resposta final é preciso usar também um sistema clássico de computação.

A computação quântica não é um substituto para computação de alta performance ou exascale, apesar de sua velocidade potencial, diz Steve Conway, analista da IDC. Ele acredita que o maior uso industrial da computação quântica será melhorar a segurança dos computadores. "Você não vai ver no futuro um computador quântico processando textos", diz Conway.