sexta-feira, 16 de agosto de 2013

Ascom Prodeb: Implantação do ERP na Prodeb


A Companhia de Processamento de Dados da Bahia (Prodeb), através da sua Diretoria de Administração e Finanças (DAF), adquiriu e implantará um novo Sistema Integrado de Gestão Empresarial, o Enterprise Resources Planning -- ERP. A nova ferramenta é composta de um conjunto de softwares que facilitará o atendimento pleno das necessidades técnico-administrativas-comerciais, ao eliminar o uso de interfaces manuais, otimizando o fluxo de informações e o processo decisório e reduzindo custos e tempo dos processos gerenciais da Companhia. 


  

Para José Ronaldo Vianna de Almeida, analista de Processos Organizacionais da Prodeb, a implantação do ERP "traz a certeza de que, depois de muitas experiências, estamos no caminho certo para levar a empresa ao sucesso merecido de quem está há tantos anos no mercado". O "CONSIST EPM - Enterprise Project Management" é uma das ferramentas adotadas na implementação da nova gestão, facilitando os serviços da empresa no gerenciamento de portfólio, programa e projetos. Além disso, a ferramenta deve permitir a integração com módulo de Recursos Humanos que contemple todas as áreas de bem-estar e carreira dos funcionários e colaboradores da Prodeb. 

Maurício Filgueiras, presidente da MXM Sistemas, esclarece que todo o ERP foi projetado especialmente para a gestão de portal corporativo voltada para fluxo de processos da empresa. A MXM Sistemas é uma empresa nacional que atua no mercado corporativo desde 1990 cujo principal produto é o MXM-Manager, um sistema de gestão totalmente integrado on-line e desenhado de acordo com a realidade operacional e a legislação brasileira. "Este é um projeto que será muito importante para ambas as partes e estamos muito honrados em poder estar aqui, principalmente por estar interagindo com a Prodeb, que nos impressionou pela seriedade, pela competência e pelo nível profissional que encontramos nesta organização", concluiu Maurício Filgueiras.

Resultados Previstos

A Prodeb espera que o ERP atenda novas exigências do mercado tecnológico, que se torna cada vez mais competitivo, além da integração dos processos de negócios e gerenciamento de toda cadeia de serviços, possibilitando o aumento de produtividade. 
  • Integração total dos dados e processos, com as informações atualizadas e disponíveis para atividades operacionais e de suporte a tomada de decisão; 
  • Possibilidade de rastreamento das informações nos diversos módulos fonte a partir de módulos que tratam informações acumuladas/consolidadas; 
  • Alterações em procedimentos, mudando as atividades para uma visão orientada a processos, tornando a empresa mais ágil e eficiente; 
  • Entrada única das informações, validação on-line completa e relatórios on-line, com a consequente eliminação das inconsistências entre as diversas fontes de informações; 
  • Interface Web com redução do custo de propriedade e aumento da qualidade dos serviços, através do upgrade tecnológico; 
  • Redução nos prazos das demonstrações contábeis e do tempo dos processos gerenciais;
  • Solução para os problemas e dificuldades dos sistemas atuais e atendimento as necessidades e particularidades da Prodeb; 
  • Eliminação do uso de interfaces manuais; 
  • Redução de custos, com a integração e aprimoramento dos processos e controles internos, a eliminação de retrabalhos de conciliação entre sistemas e a agilização na geração de relatórios gerenciais e de acompanhamento das operações.

Fonte: "Prodeb-Implantação do ERP na Prodeb - Geral - Notícias." Prodeb-Tecnologia, Informação e Segurança. http://www.prodeb.ba.gov.br/modules/news/article.php?storyid=2011 (accessed August 16, 2013).

INFO: Telebras faz acordo para aumentar banda larga no Sul



Brasília - As estatais Telebras e Eletrosul assinaram, nesta quinta-feira, acordo para que a Telebras possa usar a infraestrutura de telecomunicações da Eletrosul, do grupo Eletrobras, para aumentar a oferta de banda larga na região Sul do país.

A medida faz parte do Programa Nacional de Banda Larga (PNBL), do governo federal, que visa acelerar a expansão da banda larga no país.

Segundo o presidente da Telebras, Caio Bonilha, as duas empresas farão um rateio das despesas e das receitas. "Estamos integrando comercialmente as duas operações", disse a jornalistas, após a assinatura do acordo.

Bonilha disse que a ideia é que acordos semelhantes para compartilhamento da infraestrutura sejam feitos com outras subsidiárias da Eletrobras. "Acredito que é um acordo vantajoso para ambas as partes", disse.

Fonte: "Telebras faz acordo para aumentar banda larga no Sul | INFO." INFO | Notícias, reviews, downloads, dicas e fóruns de tecnologia e internet. http://info.abril.com.br/noticias/ti/2013/08/telebras-faz-acordo-para-aumentar-banda-larga-no-sul.shtml (accessed August 16, 2013).

Convergência Digital: Governança da Internet não dá 'controle' nem altera desigualdades



No que parece um cacoete nacional de reagir a problemas com soluções que não os atacam efetivamente, o episódio da espionagem da agência de segurança norte-americana é usado como reforço dos argumentos por uma “governança internacional da Internet”, para que se fuja do “controle” dos Estados Unidos sobre a rede.

A própria premissa é discutível, ao menos na forma como incorporada pelo governo brasileiro, resumida assim pelo ministro das Comunicações, Paulo Bernardo: “A Internet é governada por um organismo chamado ICANN, vinculado ao departamento de Comércio dos EUA, no qual alguns governos participam somente de forma consultiva.”

O domínio dos americanos sobre a Internet é inegável. Mas ainda que seja válida uma discussão sobre ‘internacionalizar’ a ICANN, ela nem de longe ataca a raiz do “problema” – além de parecer pouco eficiente tratar a “lista telefônica da Internet”, o que é em essência a ICANN, como um organismo que “controla” a rede mundial.

A ICANN é apenas uma das pernas da “governança” e, apenas, em ‘nomes e números’, no endereçamento da Internet. O governo brasileiro encontraria muito mais “poder” sobre a rede em outras, como o IGF, que é o Fórum de Governança da Internet, ou na Força Tarefa de Engenharia da Internet, a IETF.

O IGF foi criado pelas Nações Unidas, mas funciona fora do sistema ONU. Como se trata de um fórum onde qualquer um pode participar, é muito mais uma desculpa para um encontro anual de interessados. Dali não saem leis, resoluções, normas, nada. Só ideias.

O IETF é ainda mais informal. Trata-se de um agrupamento de engenheiros que discutem Internet. Eles combinam padrões, mas o efeito é completamente voluntário – ninguém é obrigado a segui-los. E, ainda assim, tem uma força efetiva no esforço coletivo que é a rede para falar a mesma linguagem técnica.
re
O que o governo brasileiro – sem ser o único – parece ter dificuldade de assimilar é que nenhuma dessas instâncias efetivamente manda em nada. Dificuldade que parece estar ligada à resistência cognitiva de que a Internet possa ter a dimensão que tem sem um “controle” centralizado, um chefe, uma lei. 

A inexistência de um “controle”, porém, não é o mesmo que ausência de problemas. “A governança da Internet não é centralizada. Mas claro que isso não é um mundo cor de rosa, porque há uma hipossuficiência entre quem produz e quem acessa”, diz o ministro-conselheiro do Itamaraty Rômulo Neves, até recentemente chefe da divisão da Sociedade da Informação.

“A Internet é mais ou menos dois mil subsistemas de computadores conectados que se comunicam entre si. Os Estados Unidos legislaram sobre isso [no caso da ICANN] porque a grande maioria dos usuários, pesquisadores e máquinas estavam lá quando ela se desenvolveu a partir de uma rede privada de norte americanos”, explica. 

A preponderância dos EUA é real. Mas embora o governo brasileiro pareça confundir isso com a ICANN ficar na Califórnia, é algo mais ligado ao fato de que boa parte do conteúdo acessado ser em inglês e em sua maioria hospedado em servidores que estão nos Estados Unidos. Dos 1 milhão de sites mais vistos no mundo, 43% estão nos EUA, segundo levantamento da sueca Royal Pingdom.

Quase 500 milhões de seres humanos usam gmail para enviar mensagens, o que faz o serviço da Google o líder mundial nesse terreno. 86% dos internautas navegam pela Internet via Chrome, Explorer, Firefox ou Safari. O Facebook tem mais de 1 bilhão de usuários. As pessoas buscam mais conteúdos e tecnologias americanas.

“Há uma dominância pesada norte-americana. Há grande desigualdade na produção de conteúdo, de tecnologia. Alterar essa relação depende de universidades. Não há medida na governança da Internet que altere a relação no mundo sobre produção de tecnologia. Assim como cuidar só da infraestrutura [de redes] não resolve a dependência do Brasil, porque as pessoas vão continuar buscando conteúdo e tecnologias lá fora”, avalia Neves.

Mesmo a participação nos fóruns exige outro tipo de esforço. O IETF, aquela congregação que discute Internet, reúne 2 mil engenheiros – 1,2 mil deles são americanos ou não americanos que vivem nos Estados Unidos. Do Brasil são cerca de 25, mal enchem uma Kombi. Como insiste o ministro-conselheiro, não há governança que mude isso, mas sim formar mais engenheiros. 

Fonte: Grossmann, Luís Osvaldo . "Governança da Internet não dá 'controle' nem altera desigualdades - Convergência Digital - Internet." Convergência Digital. http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?infoid=34580&sid=4#.Ug4ibNIp9Ns (accessed August 16, 2013).

INFO: Governo lista cidades que ficarão sem TV analógica


 
Ministro das Comunicações, Paulo Bernardo: "O governo 
deve definir nos próximos dias as cidades que terão o sinal 
de TV analógica desligado já em 2015".

São Paulo - O ministro das Comunicações, Paulo Bernardo, afirmou nesta quinta-feira que o governo deve definir nos próximos dias as cidades que terão o sinal de TV analógica desligado já em 2015. O plano do governo é que 600 devem ser contempladas, mas há pressão por parte do setor de radiodifusão para reduzir esse número.

A ideia é começar pelas maiores municípios e regiões metropolitanas do País. O cronograma de desligamento terá início em 1º de janeiro de 2015 e termina em 31 de dezembro de 2018. "Na semana que vem, devemos ter a seleção do número de cidades que achamos imprescindível entrar já em 2015", afirmou.

"A pressão é para diminuir o número de cidades. Estamos fazendo uma avaliação e o setor ficou de nos apresentar uma alternativa. É possível que tiremos algumas", acrescentou Bernardo.

O ministro disse que o governo trabalha com vários cenários diferentes de subsídios para a aquisição de aparelhos e para a transferência dos canais analógicos para a plataforma digital. "Depois que definirmos as cidades, temos que ver o tamanho dos subsídios. Isso ainda não está fechado", afirmou.

O ministro participou de cerimônia de assinatura de acordo de parceria técnico-operacional e comercial entre a Eletrosul e a Telebrás. Pelo acordo, a Telebrás poderá utilizar a rede de fibra ótica da Eletrosul para levar o Programa Nacional de Banda Larga (PNBL) para municípios da região Sul do País. A Telebrás não vai pagar aluguel pelo uso da rede da Eletrosul e, em troca, fará investimentos para melhorar a qualidade da rede em benefício das duas empresas.

Fonte: "Governo lista cidades que ficarão sem TV analógica | INFO." INFO | Notícias, reviews, downloads, dicas e fóruns de tecnologia e internet. http://info.abril.com.br/noticias/ti/2013/08/governo-lista-cidades-que-ficarao-sem-tv-analogica.shtml (accessed August 16, 2013).

INFO: Anatel divulga desempenho de operadoras



Brasília - A Agência Nacional de Telecomunicações (Anatel) divulgou hoje (15) os resultados da avaliação de desempenho das operadoras de telefonia celular por estado e município. A agência divulgara três relatórios sobre o desempenho das empresas, depois que a venda de novas linhas foi suspensa no ano passado por causa da queda na qualidade do serviço prestado.

Após a medida, as operadoras foram obrigadas a apresentar um plano nacional de ação com medidas para garantir a melhoria na qualidade do serviço. As metas são organizadas em um cronograma com prazo de conclusão até dois anos e, caso não ocorra uma evolução positiva, novas medidas restritivas podem ser adotadas pela agência.

Segundo a Anatel, o objetivo da publicação dos dados por unidade da Federação e por município é a fim de permitir que o usuário tenha, de forma fácil e transparente, acesso aos dados de desempenho de sua operadora e das concorrentes, para que possa fazer a comparação entre elas. O acompanhamento e a avaliação dos resultados ocorrem por meio da coleta de informações feita pelos fiscais da Anatel.


Os dados do desempenho das operadoras por estado e município estão disponíveis no link: http://sistemas.anatel.gov.br/sqp/qualidade/principal/consulta.asp.

Fonte: "Anatel divulga desempenho de operadoras | INFO." INFO | Notícias, reviews, downloads, dicas e fóruns de tecnologia e internet. http://info.abril.com.br/noticias/mercado/2013/08/anatel-divulga-desempenho-de-operadoras.shtml (accessed August 16, 2013). 



COMPUTERWORLD: Novo ERP na nuvem mira pequenos negócios



As micro e pequenas empresas contam com uma nova opção na área de sistema de gestão empresarial (ERP) na nuvem. É o pacote Cake, lançado pela NL Informática, utilizando o conceito de "incubar" startups de tecnologia. 

A nova tecnologia atende empreendedores de diversos segmentos, em especial do varejo, food service e franquias. Sua principal funcionalidade é gerir os sistemas de ponto de venda, financeiro, estoque, compras e análises gerenciais.

O ERP é baseado em flat design (mesmo padrão de design adotado recentemente por grandes companhias como Microsoft, Google e Facebook) e vem com funcionalidades prontas. 

Segundo a NL, novo produto otimiza os processos de gestão através de módulos de compras, vendas, estoque, relatórios e uma exclusividade em oferecer integrado ao ERP um PDV (ponto de vendas) totalmente automatizado e de acordo com as exigências legais brasileiras.

Para garantir a melhor experiência e usabilidade ao usuário, todo o desenvolvimento do produto foi baseado em histórias relacionadas com as experiências do cliente, além de funcionalidades sustentadas por previsões de consumo.

O Cake ERP foi lançado em versão Beta, disponível para usuários interessados em participar dos testes e adequação do produto. Após os testes, o produto estará disponível a todo o mercado, sem restrições, até o final de setembro. 

Fonte: "Novo ERP na nuvem mira pequenos negócios - COMPUTERWORLD." Portal sobre tecnologia da informação e telecomunicações - COMPUTERWORLD. http://computerworld.uol.com.br/negocios/2013/08/15/novo-erp-na-nuvem-mira-pequenos-negocios/ (accessed August 16, 2013).

CIO: Cinco hábitos que deixam as redes corporativas vulneráveis



Já foi o tempo em que bloquear o acesso às redes sociais no ambiente de trabalho era aceitável. Mas, em várias organizações, o que antes era considerado uso inapropriado da infraestrutura da companhia tornou-se essencial. Hoje, ambientes como o Facebook e o YouTube fazem parte das estratégias de marketing. Ao mesmo tempo, sistemas de mensagens instantâneas são amplamente usados na comunicação eficiente entre funcionários.

A natureza do negócio deve definir a política de acesso a esses sites.Funcionários do Departamento de Defesa dos Estados Unidos, por exemplo, não precisam das redes sociais e não devem usar as máquinas da organização para acessá-las. Já no caso de um funcionário do departamento de marketing, passar 15 minutos por dia em sites de relacionamento e em mídias sociais não é, nem de longe, suficiente. Assim, cabe ao gestor da área de TI avaliar qual a real importância desses sites para os funcionários.

Mesmo assim, há determinados tipos de site que não têm qualquer ligação com as atividades da empresa, nem há a menor justificativa para serem acessados - caso dos portais de jogos e sites adultos, por exemplo. Torre relata que com alguma frequência é procurado por clientes à procura de auxílio para se livrar de malwares inocentemente baixados durante uma sessão de pôquer.

Infelizmente, o simples bloqueio aos sites nem sempre é efetivo. Um funcionário engenhoso vai encontrar um jeito de driblar as restrições no trabalho. Ele vai comprometer a segurança, os dados e até a propriedade intelectual. Quem dá o alerta é o Senior Vice President e Chief Security Strategist da Blue Coat Systems, Hugh Thompson.

De acordo com Thompson, alguns atalhos encontrados na web para driblar os bloqueios são extremamente perigosos. "Eles criam canais na rede pelos quais fluem informações sem passar por qualquer tipo de monitoramento. Assim, até programas de prevenção de vazamentos de informações acabam tendo pouca eficiência”.

Confira abaixo cinco técnicas, das elementares às sofisticadas, usadas por funcionários para romper firewalls e medidas que devem ser adotadas para reforçar a proteções da rede corporativa.

1 - Digitar IP em vez da URL

Em determinadas ocasiões, inserir o endereço IP na barra dos navegadores pode iludir o firewall, caso este se baseie apenas no nome dos domínios para impedir o acesso. Há vários endereços que providenciam números IP para sites. Um exemplo de serviços desses está disponível em baremetal.com., que informa o IP de qualquer site. Copiar e colar esses códigos na barra de navegação dos browsers leva o internauta diretamente até esse conteúdo.

Solução

A maneira antiga de resolver esse problema seria usar uma relação de IPs e inseri-la em um tipo de blacklist. Há várias empresas que fornecem esse tipo de lista. Mas os especialistas recomendam ignorar a questão de IP/URL. Em vez de barrar, procure examinar o conteúdo de cada site. Isso vai exigir mais tempo para depurar as informações, mas é eficiente.

Determinadas páginas podem “importar” seções de outros sites. Se o endereço que importa essas informações for liberado, todas as requisições feitas ao conteúdo de outra página serão automaticamente “abençoadas”. O conselho é examinar o código fonte de cada site acessado.

2 – Carregar versões do cachê

Muitas páginas podem ser acessadas via cópia armazenada pelo próprio Google ao longo da indexação do conteúdo. Basta o usuário clicar no link “Em cache”, localizado no rodapé dos resultados de cada página exibida depois de uma busca.

O internauta é levado para dentro da página, sem abandonar o domínio do Google, ou seja, para qualquer bloqueador de URLs, o site de acesso negado não está sendo acessado. Quando um usuário navega no conteúdo armazenado de uma página dentro do Google, ele está em comunicação com o servidor dessa cópia (no caso o Google) e não com a página bloqueada.

Solução

Os especialistas recomendam a mesma solução indicada para o caso anterior, que é submeter o conteúdo a uma análise antes de chegar à máquina do usuário.

3 – Criptografar o conteúdo

Inserir HTTPS no começo de cada URL leva o usuário até uma versão básica do site e elimina boa parte dos seus elementos, mas mesmo assim garante acesso ao endereço “proibido”.

Há o SSH, criptografia de SOCKS e outros canais alternativos que “mascaram” o tráfego em redes menos sofisticadas. Elas se conectam às portas 80 ou à 443 – portas padrão para o protocolo HTTP. Então funcionam sem levantar qualquer suspeita, pois o que passa por elas é considerado tráfego normal de internet. E, quando temos o fator invisibilidade ao nosso lado, qualquer coisa é possível.

Solução

O conteúdo previamente criptografado por uma camada SSL e que flui por um canal que começa na máquina do usuário A e se estende até o ponto B, fora dos limites da rede corporativa, é muito difícil examinar.

É importante implementar proxies e gateways próprios para interromper qualquer encapsulamento e analisar cada pacote IP que chega e que sai da LAN.

As exceções intrínsecas às redes internas ou com proxies HTTPS transparentes impossibilitam o exame do que trafega na rede. A solução é submeter todo o tráfego a um intermediário que vai interromper a sessão iniciada e gerar uma nova ligação.

4 – Usar servidores Proxy e outras ferramentas de privacidade

Usar servidores Proxy particulares é outra artimanha usada. O funcionário pode configurar o navegador de forma a encaminhar todo o tráfego por um canal criptografado até um servidor externo que pode liberar o acesso irrestrito a sites e páginas.

Há uma extensão para o Firefox chamada GhostFox. Esse recurso instala um botão de privacidade logo abaixo do campo da URL e permite ao internauta escolher um servidor Proxy que blinde a navegação.

Especialistas dizem que houve um aumento razoável no uso desses recursos. Um exemplo disso é o Hamachi, uma ferramenta VPN usada para estabelecer um canal direto com um servidor, e há o programa Tor, uma espécie de roteador que envia a conexão com a internet para uma série de replicadores anônimos. Essas ferramentas foram criadas com o intuito de proteger a privacidade, mas são largamente usadas por pessoas que desejam esconder as atividades na internet, do departamento de TI.

É um jogo de gato e rato, afirmam especialistas. Não interessa se usam o Tor ou o Hamachi; as pessoas estão escondendo o tráfego com criptografia. A maioria dos recursos que filtram esse tráfego nas empresas não consegue visualizar o conteúdo circulante.

Solução

Se o servidor Proxy não for criptografado, o exame do tráfego fica facilitado e torna-se possível bloquear o acesso a servidores Proxy externos ou, como mencionado nos casos anteriores, analisar o conteúdo dos pacotes IP.

Com o conteúdo criptografado por ferramentas como o Tor, o bloqueio fica, na melhor das hipóteses, dificultado. O que pode ser feito é rastrear o Tor usando um sistema de detecção de invasores. Mas, lembre-se que essas ferramentas são altamente descentralizadas e operam de acordo com o modelo P2P, o que transforma a tarefa de geração das blacklists algo fenomenal, gigantesco.

5- Uso de smartphones

Usar smartphones para ficar ligado nos acontecimentos do Facebook ou do Twitter é algo absolutamente corriqueiro. Se usar um smartphone não é comparável a mexer de maneira indevida com o computador da empresa, ainda assim é um crime se for usado para acessar endereços da web não permitidos no local de trabalho. Em determinados casos, o Facebook ou o YouTube são bloqueados por razões de desempenho profissional. Visitar esses sites durante o expediente não difere muito de usar a estação de trabalho da companhia; de uma forma ou de outra, há o desperdício de tempo.

Solução

Neste caso, as opções de segurança são restritas, salvo o caso de o aparelho pertencer à corporação. Alguns dispositivos móveis podem ser configurados de tal maneira a negar o acesso às redes de relacionamento através das políticas de grupos e de servidores Proxy, igual acontece com notebooks e com PCs. Com dispositivos privados ou desbloqueados, há pouco que se possa fazer, a não ser negar a presença desses aparelhos no ambiente de trabalho.

No caso de organizações extremamente bem equipadas em termos de tecnologia, como acontece com entidades governamentais em que circulam informações ultraconfidenciais, sugere-se o uso de firewalls do tipo RF ou outra solução que barre conexões estranhas. Mas é uma solução de alto custo e considerada extrema. Em suma, os smartphones não são controláveis, restando ao empregador apostar na educação e no bom senso de funcionários e colaboradores.

Informar aos funcionários que o propósito das diretrizes de segurança é ajudar a empresa e, consequentemente, a manutenção do emprego de todos pode ser uma saída.

Fonte: Goodchild, Joan . "Cinco hábitos que deixam as redes corporativas vulneráveis - CIO." CIO - Gestão, estratégias e negócios em TI para líderes corporativos. http://cio.uol.com.br/tecnologia/2013/08/15/cinco-habitos-que-deixam-as-redes-corporativas-vulneraveis/ (accessed August 16, 2013).

IDG Now!: Incidentes com violação de dados aumentam preocupações sobre segurança



O custo médio dos incidentes de segurança que afetam empresas atualmente chegou a 9,3 milhões de dólares.

A crescente consciência sobre as ameaças cibernéticas e as relatadas exigências de reguladoras está levando ao aumento do interesse em produtos de segurança que cobrem violações de dados e outros riscos de computação.

Quase um terço das empresas (31%) já possuem apólices de cibersegurança, e mais da metade (57%) que não possuí seguro disse planejar ter um no futuro, de acordo com um estudo recente realizado pelo Instituto Ponemon e pela Experian Data Breach Resolution.

"Essa é uma questão muito mais abordada com altos executivos em empresas agora", disse em uma entrevista Larry Ponemon, fundador e presidente do Ponemon Institute. "A segurança dos dados pode não ser uma das cinco questões mais importantes das empresas, mas está no top 10", acrescentou.

A preocupação com as ameaças cibernéticas é tão grande que mais de 76% das organizações participantes do estudo que experimentaram uma invasão classificaram os riscos de cibersegurança como o mais alto risco, ou acima de outros incidentes preocupantes como desastres naturais, interrupções de negócios, fogo e etc.

"Isso é muito surpreendente", disse Ponemon. "Um monte de gente sente - talvez por causa de toda a cobertura midiática ou por todas as histórias de guerra que ouvimos falar - que toda a área da violação de dados e perda de dados é um problema que pode ter um impacto sólido sobre a empresa."

Os pesquisadores também descobriram que o custo médio dos incidentes de segurança que afetam as empresas participantes do estudo chegou a 9,3 milhões de dólares. Ao serem solicitados a prever qual seria o custo médio para eles no futuro, os entrevistados calcularam cerca de 163 milhões de dólares.

Ainda assim, a maioria das empresas (70%) admitiu que o interesse em adquirir um seguro que engloba cibersegurança somente aumentou ao serem atingidos por algum incidente. Para as empresas que ainda não compraram apólices, as principais razões são: preço elevado (52%) e muitas exclusões, restrições e riscos não seguráveis (44%).

"Uma das coisas que faz com que as pessoas desconfiem de seguros são todas as coisas que não são cobertas em uma apólice", disse Ponemon. "Isso é verdade para todos os tipos de seguros. Achamos que está coberto, mas não estamos realmente assegurados, então vivemos em uma espécie de falso paraíso."

Mudança nas especificações

Antes da computação representar algo crítico como atualmente representa para a maioria das empresas, uma corporação poderia ser capaz de persuadir uma seguradora a cobrir uma perda ligada a um incidente cibernético sob a apólice geral de seguro de responsabilidade civil da organização. Mas esse não é mais o caso.

"As companhias de seguros reforçaram a descrição nas apólices de infortúnios e de propriedade", explicou Ponemon. "Estamos começando a ver violações de dados e comprometimento da segurança especificamente excluídos desses seguros."

Uma razão para excluir tais riscos é porque eles são difíceis de quantificar. "Embora o interesse continue a crescer, o mercado de seguro cibernético ainda é imaturo, porque os riscos subjacentes à cobertura são difíceis de quantificar do ponto de vista atuarial", escreveram John A. Wheeler e Paul E. Proctor em um relatório da Gartner do ano passado.

"Sem um padrão de tabelas atuariais, as operadoras de seguros muitas vezes são deixadas aos seus próprios padrões de segurança e criatividade ao oferecer apólices de seguro cibernéticos", escreveram. "A falta de dados atuariais também faz do seguro cibernético menos desejável para as empresas, enquanto tem seu preço aumentado."

As seguradoras, no entanto, começaram a melhor quantificar certos tipos de riscos cibernéticos. "Onde o seguro cibernético ganhou força é uma área mais quantificável - a de violação de dados", disse Andrew Braunberg, diretor de pesquisa da NSS Labs, em uma entrevista.

"É onde toda a ação está hoje, por razões óbvias", continuou. "Existem leis de notificação de violação então as empresas não podem deixar de fazer, e há muitos dados então as companhias de seguros estão bastante confiantes sobre o quando irá custar a eles para assegurá-los."

Não é tão fácil, no entanto, calcular o custo para segurar outros riscos, tais como perda de reputação, propriedade intelectual ou conectividade de rede. "Os dados atuariais nem de longe estão tão completos ou refinados quanto os de apólicies de violações mais simples", disse Braunberg.

Fonte: Mello Jr, John P. . "Incidentes com violação de dados aumentam preocupações sobre segurança - IDG Now!." IDG Now! - Notícias de tecnologia, internet, segurança, mercado, telecom e carreira. http://idgnow.uol.com.br/internet/2013/08/15/incidentes-com-violacao-de-dados-aumentam-preocupacoes-com-seguranca/ (accessed August 16, 2013).

G1: App transforma celular em 'oftalmologista portátil'


 
Aplicativo de celular pode fazer exames de fundo de 
olho em pacientes.

Um pesquisador da Escola de Higiene e Medicina Tropical de Londres está testando um novo aplicativo que transforma celulares em uma espécie de consultório oftalmológico de bolso. Andrew Bastawrous está testando o aplicativo Peek (Portable Eye Examination Kit, ou kit portátil de exame de olhos, em tradução livre) em 5 mil pessoas no Quênia.

O aplicativo usa a câmera do celular para examinar os olhos e detectar catarata. Além disso, uma letra que aparece na tela e vai diminuindo de tamanho é usada no exame básico de visão – que detecta, por exemplo, a necessidade de óculos.

E, com o aplicativo, a luz do flash da câmera do celular é usada para iluminar o fundo do olho, que vê a retina, para tentar identificar mais doenças.

As informações do paciente ficam no celular, o lugar exato onde ele está é gravado com o GPS do aparelho, e os resultados podem ser enviados por e-mail aos médicos.

Bastawrous criou essa solução pois, até mesmo nos países mais pobres, é possível encontrar oftalmologistas em cidades maiores – mas os locais mais afastados ainda são um problema.

"Os pacientes que mais precisam (de atendimento oftalmológico) nunca vão conseguir chegar a um hospital, pois eles estão além do fim da estrada, não têm renda para o transporte, então precisávamos de um jeito de encontrá-los", afirmou o pesquisador.

Segundo a Organização Mundial da Saúde (OMS), 285 milhões de pessoas são cegas ou têm alguma deficiência visual. Mas, de acordo com a organização, o tratamento desses problemas frequentemente é simples: óculos ou cirurgia. Além disso, acredita-se que quatro a cada cinco casos podem ser evitados ou curados.

Custos e curas

O telefone é relativamente barato: custa cerca de 300 libras (mais de R$ 1.070), em comparação com um grande equipamento de exame oftalmológico, que pode custar até 100 mil libras (quase R$ 358 mil).

As imagens que o aplicativo capturou durante os testes em Nakuru, no Quênia, estão sendo enviadas para o Hospital Oftalmológico de Moorfield, em Londres. Essas fotos são comparadas com as feitas em um aparelho tradicional de exames, que foi transportado pela região em uma camionete.

O estudo ainda não está completo, mas a equipe de médicos afirma que os primeiros resultados são animadores, e mil pessoas já receberam algum tipo de tratamento até agora.

Entre os pacientes beneficiados, está Mirriam Waithara, que vive em uma área pobre e remota do Quênia, onde não há médicos para diagnosticar a catarata que quase a cegou. Mas, depois de passar pelos exames com o aplicativo Peek, Mirriam fez a operação para remover a catarata e agora pode enxergar novamente.

"O que esperamos é que (o aplicativo) forneça cuidados para os olhos daqueles que são os mais pobres entre os pobres", disse Bastawrous.

"Muitos hospitais fazem a cirurgia de catarata, que é a causa mais comum de cegueira, mas a verdade é que levar o paciente para os hospitais é um problema. O que podemos fazer usando isso é permitir que técnicos cheguem aos pacientes, às suas casas, os examinem lá e os diagnostiquem", afirmou o pesquisador.

Sem treinamento

Mesmo sem ter sido concluída, a pesquisa já está gerando elogios. Peter Ackland, da Agência Internacional para Prevenção da Cegueira, afirmou que o aplicativo tem potencial para ser "decisivo" na luta contra doenças que afetam a visão.

"Se você é alguém que sustenta uma família e não consegue enxergar, então você não consegue trabalhar, e a família entra em crise", afirmou.

"Neste momento, nós simplesmente não temos funcionários treinados em saúde dos olhos para levar esses serviços às comunidades mais pobres. Essa ferramenta vai permitir fazer isso com pessoas relativamente sem treinamento", acrescentou Ackland.

Ele acredita que a África e o norte da Índia serão as regiões que mais devem se beneficiar com o novo aplicativo, pois os oftalmologistas e técnicos desses lugares estão operando com cerca de 30% a 40% da capacidade total.

 
Mirriam Waithara fez exames em casa, no Quênia, 
graças ao aplicativo Peek. 

Fonte: "G1 - App transforma celular em 'oftalmologista portátil' - notícias em Ciência e Saúde." G1 - O portal de notícias da Globo . http://g1.globo.com/ciencia-e-saude/noticia/2013/08/app-transforma-celular-em-oftalmologista-portatil.html (accessed August 16, 2013).

Bahia Notícias: Oi e TIM têm pior serviço de celular da Bahia; Oi também tem pior internet





A Agência Nacional de Telecomunicações (Anatel) divulgou nesta quinta-feira (15) uma pesquisa inédita, que traz dados da qualidade dos serviços das quatro operadoras de celular (Oi, TIM, Claro e Vivo) divididos por estados e municípios, monitorados 24h por dia. Na avaliação foram levadas em conta ligações completadas e as que apresentaram queda, além dos mesmos critérios para a internet 2G e 3G. As operadoras Oi e TIM tiveram os piores resultados na Bahia e em Salvador, sendo que no estado a TIM é a última, posição ocupada pela Oi em na capital. Em relação às ligações, a pesquisa traz um levantamento desde agosto do ano passado até abril deste ano. Nos nove meses, a TIM apresentou o menor número de chamadas completadas com sucesso, média de 92,2%, sendo que a taxa mínima exigida é de 95%. A Claro teve o melhor desempenho, com 98,1%. Em relação às ligações derrubadas, que deveriam ter índice abaixo de 2%, mais uma vez a TIM se destaca negativamente, com taxa média de 1,39%, ainda assim dentro do padrão da Anatel. Na avaliação feita em Salvador, a Oi foi a única abaixo da média, com taxa de ligações completadas de 94,3%, enquanto a TIM ficou com 95,9%.


A situação das operadoras se mantém no quesito internet, com pequenas mudanças. Os dados referentes a qualquer tipo de serviço de conexão de dados (2G ou 3G) colocam a Oi na última colocação. A operadora teve o índice de conexões feitas na Bahia, em contraponto ao número de tentativas, de 87,9%, quando o padrão exigido pela Anatel é de 98%. A TIM também teve desempenho negativo nos nove meses, com média de 93,9%. Em relação ao serviço interrompido, de longe a Oi tem a maior taxa de perda de conexão, com 13,2%, quando o indicado é de apenas 2%. Neste cenário, as outras três operadoras ficaram dentro da média. A Oi segue na liderança como o pior 2G da Bahia, com dados de fevereiro a março deste ano, com 88,5% do total de conexões completas e 5,2% de serviço interrompido. A Vivo ficou com média de 89,3% das conexões completas, a TIM teve 95,7% e apenas a Claro ficou acima da meta, com 99,5%. Em relação ao 3G, o ranking de conexões totais completas ficou da seguinte forma: Oi (93,5%), Claro (97%), TIM (99,3%) e Vivo (99,5%). Nenhuma ficou abaixo da meta em relação à queda do 3G. 



Em Salvador, o cenário tem a Oi na pior posição de serviço de internet em geral, com conectividade de 88,9%, tendo a Vivo como segunda pior, média de 93,1% e a TIM também abaixo da média com 96%. Somente a Claro superou os 98% exigidos, com 99% das conexões com sucesso. Em relação ao 2G, a Oi permanece na última posição, com 90% das conexões totais, enquanto a Vivo aparece com 93,9% e as outras duas operadoras tiveram desempenho satisfatório. No 3G, Claro e Oi ficaram 1% abaixo da média e Vivo e TIM pontuaram cerca de 1% acima da média.


Fonte: Freitas, Sandro. "Bahia Notícias / Notícia / Oi e TIM têm pior serviço de celular da Bahia; Oi também tem pior internet - 15/08/2013." Bahia Notícias. http://www.bahianoticias.com.br/principal/noticia/142245-oi-e-tim-tem-pior-servico-de-celular-da-bahia-oi-tambem-tem-pior-internet.html (accessed August 16, 2013).

Bahia Notícias: Arquiteto projeta bicicleta com levitação magnética que funciona como wi-fi ambulante



Um arquiteto do Texas, nos Estados Unidos, projetou uma bicicleta que utiliza levitação magnética e poderá fornecer energia para smartphones e funcionar como uma espécie de wi-fi ambulante. Segundo informações do Ciclo Vivo, o meio de transporte, batizado de "Levitation", possui um gerador integrado ao quadro e baterias de alta capacidade para armazenar a energia produzida com as pedaladas.

Muito à frente das bicicletas comuns, o modelo também reduz a resistência do vento e absorve o impacto de pedras e solavancos, por meio de levitação magnética e energia cinética. A tecnologia oferece ainda entradas USB e um monitor LED, que informa a distância percorrida e a quantidade de energia gerada na bateria, para que dispositivos móveis sejam carregados durante o trajeto.

Fonte: "Bahia Notícias / Notícia / Arquiteto projeta bicicleta com levitação magnética que funciona como wi-fi ambulante - 15/08/2013." Bahia Notícias. http://www.bahianoticias.com.br/principal/noticia/142210-arquiteto-projeta-bicicleta-com-levitacao-magnetica-que-funciona-como-wi-fi-ambulante.html (accessed August 16, 2013).

Olhar Digital: Microsoft critica "falta de abertura" do Google e fala em sabotagem



A Microsoft não engoliu o bloqueio do Google ao aplicativo do YouTube no Windows Phone. A empresa criticou abertamente a postura da concorrente, a quem acusa de sabotar seu sistema operacional móvel.

Em post no blog oficial da companhia, David Howard, vice-presidente corporativo da Microsoft se propôs a explicar a situação sobre o aplicativo do YouTube para o WP. "Consideramos claro que o Google não quer que usuários do Windows Phone tenham a mesma experiência que os do Android e da Apple", conclui o texto.

O texto discorre sobre o processo de desenvolvimento do app em parceria entre as duas empresas. A Microsoft lançou em 7 de maio seu aplicativo próprio para acessar o YouTube pelo Windows Phone. O app possuia recursos exclusivos como baixar os vídeos e não exibir a publicidade da página, o que irritou profundamente o Google, que obrigou a rival a tirar o aplicativo do ar.

Desde então, as duas trabalham juntas em um app que respeite as diretrizes do Google e seja adequado à plataforma da Microsoft. Contudo, Howard afirma que o Google tem sido injusto.

A empresa demanda que o aplicativo utilize a linguagem HTML5, o que nem a versão de Android, nem do iOS fazem. David Howard afirma que o desenvolvimento seria lento e tomaria muito tempo. Por isso, a Microsoft subiu uma versão ajustada do aplicativo antigo, sem os downloads de vídeos e com a publicidade, conforme desejava o Google. A longo prazo, o app em HTML5 poderia ser desenvolvido.

Ao saber disso, o Google bloqueou novamente o aplicativo afirmando que ele não respeita os termos de serviço. "Quando o Google diz que não respeitamos os 'termos e condições', ele quer dizer que nosso app não é baseado em HTML5. O problema com o argumento é que o próprio Google não respeita esta condição no Android e iPhone. Novamente, ficamos felizes em colaborar em um app com HTML5, mas não deveria ser obrigatório fazer algo que nem o iPhone, nem o Android, conseguiram fazer", afirma Howard.

Por fim, ele aponta que o Google afirma que o aplicativo não mostra anúncios baseado nas condições impostas pelos criadores de conteúdo. Segundo ele, os anúncios são mostrados com base nos metadados disponíveis para a Microsoft. O representante ainda afirma que pediu ao Google as informações que o Android e o iPhone recebem para poder emulá-las precisamente. "Até o momento, o Google se recusou a dar esta informação para nós", afirma. "Os bloqueios que o Google criou são impossíveis de superar e eles sabem disso", completa.

Fonte: "Olhar Digital: Microsoft critica "falta de abertura" do Google e fala em sabotagem." Olhar Digital: O futuro passa primeiro aqui. http://olhardigital.uol.com.br/noticia/microsoft-critica-falta-de-abertura-do-google-e-fala-em-sabotagem/36788 (accessed August 16, 2013).

G1: Cientistas fazem teleporte de dados como em 'Star Trek' pela primeira vez



Em um estudo publicado na revista científica Nature, pesquisadores do Instituto Federal de Tecnologia de Zurique (ETH), na Suíça, afirmam ter conseguido pela primeira vez teleportar um pacote de dados de uma ponta a outra de um circuito eletrônico. Baseado em leis da física quântica, o sistema dispensaria a necessidade de um "mensageiro" para transportar a informação, como pulsos eletromagnéticos ou ópticos, por exemplo.

"O teleporte quântico pode ser comparado ao teletransporte visto em séries de ficção científica como 'Star Trek'", diz Andreas Wallraff, professor do Departamento de Física do ETH e chefe do estudo. "A informação não viaja do ponto A ao ponto B. Ao invés disso, ela aparece no ponto B e desaparece no ponto A quando lida pelo ponto B". O pacote de dados teria sido teleportado por uma distância de cerca de 6 milímetros.

De acordo com o estudo, um dos pré-requisitos para o sistema é o "emaranhamento quântico" entre o emissor e o receptor de dados. O "emaranhamento quântico" é um elo "mágico" criado entre duas partes que explora as leis da física quântica, explica o relatório do ETH.

Após a criação desse emaranhamento, as duas partes podem ser fisicamente removidas sem que se perca a conexão entre ambas. Logo, um pacote de informação quântica enviado pelo emissor pode ser lido pelo receptor.

O estudo afirma que, apesar de outros experimentos de teleporte terem conseguido transportar dados sobre distâncias de mais de 100 km, o feito do ETH foi o primeiro a teleportar dados em um sistema que consiste de circuitos eletrônicos supercondutores.

Outra vantagem do projeto do ETH seria a sua velocidade, muito mais rápida do que outros sistemas. Neste dispositivo, aproximadamente 10 mil "quantum bits" podem ser teleportados por segundo.

Desenvolvimento da tecnologia

Segundo os cientistas do ETH, o próximo passo é aumentar a distância no sistema entre emissor e receptor. Os pesquisadores dizem que irão tentar teleportar informação de um chip para outro e que, a longo prazo, o objetivo é saber se a comunicação quântica pode ser utilizada para cobrir longas distâncias. "O teleporte é uma importante tecnologia do futuro no campo do processamento quântico de informação", diz Wallraff.

O estudo conta ainda que, "comparado às tecnologias de comunicação e informação de hoje, baseadas em leis da física clássica, o processamento quântico de informação tem a vantagem de oferecer uma densidade de dados muito maior. Em 'quantum bits', mais informação pode ser armazenada e processada de maneira mais eficiente que nos bits tradicionais".

Fonte: "G1 - Cientistas fazem teleporte de dados como em 'Star Trek' pela primeira vez - notícias em Tecnologia e Games." G1 - O portal de notícias da Globo . http://g1.globo.com/tecnologia/noticia/2013/08/cientistas-fazem-teleporte-de-dados-como-em-star-trek-pela-primeira-vez.html (accessed August 16, 2013).

CIO: Imagine a Internet sem endereços de origem e destino



Na última conferência Netevents (São Francisco), David Newman, presidente da Network Test salientou bem uma ideia: “os fatores financeiros sempre conduziram a evolução da história das redes”. Glenn Egens gestor de um programa de investigação no centro PARC, em Palo Alto (EUA), não se sentiu intimidado. Sua trabalha hoje no que seria uma rede na qual o conteúdo, sua denominação, e como é obtido é mais importante do que os endereços de máquinas.

Já há provas de conceito feitas e é muito interessante imaginar uma Internet onde não existam “endereços de origem e destino”, sublinhou o pesquisador. Entra-se em uma série de discussões interessantes sobre como se faz encaminhamento com nomes.

“Mas o importante é que estamos aumentando drasticamente a flexibilidade dos routers levando-os a incluir uma grande quantidade de memória”, diz . Por isso, a distribuição de cache e de computação para o router serão elementos chave para executar uma rede centrada no conteúdo, em grande escala.

“Uma das possibilidades é alterar o tipo de tratamento feito, em vez de nos preocuparmos com a rapidez com a qual se faz um mapa de endereços”, explica Egens.

O hardware será importante e as redes centradas em conteúdo deverão incrementar o investimento em hardware.

“O principal desafio será o aumento da velocidade da conexão. Então como serão realizadas as funções de nível superior, como controle de conteúdo, cache, segurança, diante deste ganho de velocidade?”, questiona o responsável. Parte da solução para isso será a localização da tecnologia de computação, na rede E outra terá a ver com arquitetura e as camadas da mesma, explica.

Desagregação vertical

Shezhad Merchant, chefe de estratégia da Gigamon aposta na desagregação vertical das redes. Hoje o equipamento está integrado de forma vertical: hardware, sistemas de controlo, aplicações, tudo do mesmo fabricante.

“Acho que a desagregação vai dar origem a uma tremenda oportunidade para inovar. Teremos um conjunto de fornecedores de hardware e haverá inovação aí. Um conjunto diferente de fabricantes oferecerá software de controle, e nesta área também haverá inovação”, diz.

Mas quando se junta todas as camadas há então a necessidade de resolver problemas, e assim é preciso ter visibilidade sobre a rede. O que leva à necessidade de usar uma matriz de visibilidade.

Maior preocupação com resiliência
Bruce Davie, da VMware, considera que os gestores de redes passarão a se preocupar mais com a facilidade de gerir o hardware, com a resiliência do mesmo e com as capacidades de auto-provisionamento. Os parâmetros de avaliação do software vão mudar.

A caixa branca de Bailey

O CTO da Infoblox, Stu Bailey, começou por apresentar um dispositivo (de outro fabricante) equipado com uma porta Ethernet de 1 Gb. “Com software posso transformá-lo num switch OpenFlow”, explicou, salientando que isso era muito interessante para alguém da área de software.

“Será uma forma de transformar esta caixa branca, remotamente, num firewall, num equilibrador de carga ou num router, ou mesmo numa combinação dessas coisas à medida das necessidades do negócio”. A “caixa” tem quatro portas de Ethernet, e custa 400 dólares toda montada. Baseia-se num Raspberry Pi, equipado com processador ARM, de 35 dólares. E é possível adicionar-lhe uma placa Wi-Fi, por USB.

Assim, há duas peças de hardware que são planos Ethernet de dados e remotamente, a qualquer momento, pode-se mudar as funções de processamento de pacotes nesses planos de dados com o software, usando o protoloco OpenFlow. “Sem tocar no hardware, posso transformá-lo. Isso parece fundamental para nós e acho que vai ser cada vez mais importante para os nossos clientes, porque muda a economia das redes”, explica.

Mas Bailey alerta para o potencial desta ideia de outro ponto de vista. “As PME não vão escrever o seu próprio código, vão ter de comprar o software de alguém. Isso significa que, pela primeira vez na história, há um mercado independente de software de redes”.

Assim, o responsável prevê a possibilidade de inúmeros licenciados saírem das universidades e usando essas caixas brancas ou sistemas semelhantes, desenvolverem aplicações “que não podemos hoje sequer imaginar”.

Fonte: Nóbrega, João . "Imagine a Internet sem endereços de origem e destino - CIO." CIO - Gestão, estratégias e negócios em TI para líderes corporativos. http://cio.uol.com.br/tecnologia/2013/08/16/imagine-a-internet-sem-enderecos-de-origem-e-destino/ (accessed August 16, 2013).

Canal Tech: Tecnologia pode ajudar a diagnosticar depressão



A tecnologia avança cada dia mais a favor da medicina, e dessa vez uma startup chamada Ridge Diagnostics diz ter conseguido descobrir uma maneira de diagnosticar a depressão por meio de um "simples" exame de sangue.

John Bilello, diretor científico da startup, explicou à revista Forbes que seu teste consiste em mensurar nove tipos diferentes de biomarcadores. Essas medições são então calculadas através de um conjunto de algoritmos criados por eles para produzir o que a empresa chama de "MDD Score" – um índice que aponta de 1 a 9 quanto uma pessoa está clinicamente deprimida, e qual o nível dessa depressão. O valor desse teste? US$ 745 (cerca de R$ 1.500).

Se o resultado do teste apontar nível 1, a chance do paciente estar deprimido é de 10% ou menos. Caso o resultado aponte 9, a chance sobe para 90% ou mais. Na faixa de 5-6, é difícil dar um veredito absoluto sobre a situação psicológica da pessoa, e nesse ponto o médico precisa usar outros dados ou talvez refazer o teste para identificar a situação.

O teste funciona graças aos biomarcadores, que se concentram em quatro vias bioquímicas diferentes que são associadas com a depressão. Bilello enfatiza que os primeiros experimentos foram realizados, e eles não se limitaram a testar apenas em pessoas severamente deprimidas, mas também naqueles que sofrem de casos mais leves de depressão.

A empresa começou a comercializar o teste este ano para uso em clínicas de psiquiatras dos Estados Unidos. Atualmente, uma equipe de vendas com 20 funcionários trabalha para informar as pessoas sobre essa ferramenta potencial.

Os criadores da startup citam duas vantagens práticas proporcionadas pelo teste. A primeira é que ele ajuda a convencer os pacientes que eles estão realmente deprimidos – o que os torna mais dispostos a aceitar o tratamento. A segunda é que ele ajuda os médicos a distinguirem com mais facilidade os pacientes que sofrem de depressão e aqueles que sofrem com transtorno de ansiedade.

Fonte: "Tecnologia pode ajudar a diagnosticar depressão - Saúde." Canaltech. http://canaltech.com.br/noticia/saude/Tecnologia-pode-ajudar-a-diagnosticar-depressao/ (accessed August 16, 2013).