segunda-feira, 12 de maio de 2014

G1 - Aplicativo criado na Bahia tem função de scanner leitor para cegos


Programa faz leitura de textos para pessoas com deficiência visual.Estudantes da UFBA já utilizam tecnologia de maneira gratuita.


Os alunos cegos da Universidade Federal da Bahia (UFBA) começaram a utilizar, este ano, um aplicativo que oferece às pessoas com deficiência visual a leitura em voz alta de textos que não foram passados para o braille.

Intitulado de Slep (Scanner Leitor Portátil), o aplicativo foi desenvolvido por uma empresa que realiza pesquisas no Parque Tecnológico da Bahia, localizado em Salvador. De acordo com o coordenador do Parque, Leandro Barreto, a desenvolvedora do Slep faz parte da “Incubadora de Empresas”.

“A ideia de um parque tecnológico é a geração de novas empresas, com bases tecnológicas. Esse modelo é um dos mais utilizados no mundo inteiro para estimular pequenas empresas tecnológicas. Nós prestamos também consultoria em gestão e assessoramento para que a empresa fique mais focada na área tecnológica”, explica Barreto.

Ainda segundo Leonardo, as empresas que passam pelo processo de incubação “sobrevivem” por mais tempo porque todo o trabalho delas é acompanhado pelo Parque.

A “Incubadora de Empresas” é voltada para micro e pequenos empreendimentos, que têm o prazo de três anos para permanecer no local. Contudo, “existem casos que acabamos postergando a permanência”, conta Leonardo.

No caso da empresa que desenvolveu o Slep, o projeto durou cerca de um ano e meio para ser concluído. Os interessados podem baixar o aplicativo por sete dias, e depois devem pagar o valor de R$150. Já os alunos da UFBA utilizam o programa gratuitamente, pois a universidade comprou diversas licenças e distribuiu para os estudantes.

Segundo Joselito Silva, engenheiro integrante da empresa que desenvolveu o programa, eles esperam fazer parcerias com outras universidades para a distribuição gratuita do aplicativo.

Como surgiu o Slep 
“A ideia de criar uma empresa surgiu no laboratório da UFBA”, conta o engenheiro Joselito Silva. Segundo ele, o grupo era formado por engenheiros mestrandos, doutorandos e alunos que faziam iniciação científica.

Silva também diz que eles sempre pensaram em abrir uma empresa e no ano de 2009 o desejo se transformou em realidade. Desde o começo, o objetivo era fazer um scanner leitor.

No início do projeto, um scanner de mesa, custava em média R$ 30 mil. O alto valor do produto foi um dos fatores que fez com que os engenheiros pensassem em desenvolver um programa que levasse praticidade e acessibilidade aos cegos, em um valor mais barato. Como o Parque Tecnológico da Bahia ainda não existia, eles conseguiram uma verba da Fundação de Amparo à Pesquisa do Estado da Bahia (Fapesb) para desenvolver a ideia.

Quando os engenheiros começaram o projeto do scanner leitor, o objetivo era criar um programa para o sistema Symbia, utilizado por alguns fabricantes de aparelhos telefônicos móveis. Ele foi desenvolvido só até a metade de 2010, pois uma fabricante de aparelhos desistiu do sistema operacional e o aplicativo não teria como funcionar. Com isso, não fazia sentido terminar um projeto que não teria onde ser aplicado.

Depois, com o surgimento do Parque, a empresa inscreveu o projeto em um edital de seleção e foram escolhidos para integrar a “Incubadora de Empresas” do Parque Tecnológico. Em 2012, eles precisaram recomeçar o mesmo projeto, só que para o sistema Android. De acordo com Silva, os engenheiros conseguiram reaproveitar algumas coisas do trabalho anterior, mas precisaram refazer a maior parte do projeto.

Para a produção do Slep, a empresa ainda contou com a participação de três consultores cegos do Instituto dos Cegos da Bahia, para ajustar o aplicativo. Este ano, a empresa está terminando um sistema que servirá para a localização dos ônibus.

CIO: Três tecnologias quentes em 2020 que a TI não deve ignorar

Três tecnologias quentes em 2020 que a TI não deve ignorar
Cezar Taurion 

Elas ainda estão abaixo da tela do radar da maioria dos executivos, mas têm muito a oferecer
Em um destes almoços de negócios surgiu uma conversa interessante. A pergunta feita foi, olhando alguns anos à frente, que tecnologias estarão “quentes” em 2020?

Bem, claro que não houve concordância geral, mas minha opinião foi que além da consolidação das quatro ondas tecnológicas que vivenciamos hoje - cloud, analytics/Big data, mobile e social se tornarão lugar comum - eu prestaria muita atenção a três outras que ainda estão abaixo da tela do radar da maioria dos executivos: Internet das coisas, impressoras 3D e computação cognitiva.

A Internet das coisas é o crescente numero de objetos (ou coisas) que estão se conectando à Internet. O interesse está cada vez maior (uma pesquisa com o termo “internet of things” no Google Trends mostra isso claramente) e vemos que, embora com focos diferentes, muitas das grandes empresas de tecnologia estão criando iniciativas pesadas na área. Alguns exemplos são o Smarter Planet, da IBM (http://www.ibm.com/smarterplanet/us/en/?ca=v_smarterplanet ), a “Internet of Everything”, da Cisco (http://www.cisco.com/web/about/ac79/innov/IoE.html ), a “ Industrial Internet”, da GE (https://www.ge.com/stories/industrial-internet ), e mais recentemente o anuncio da Microsoft entrando neste campo (http://www.businessinsider.com/microsoft-launches-iot-cloud-2014-4).

Internet das Coisas é um mercado de grande potencial. Segundo o Gartner em 2020 deveremos ter mais de 26 bilhões de dispositivos conectados (excluindo-se da lista smartphones, tablets e celulares), que devem girar quase 2 trilhões de dólares de valor econômico na economia mundial, em tecnologias e, principalmente, serviços. Este é um ponto importante. Não adianta termos milhões de sensores gerando dados se não tratarmos estes dados e conseguirmos fazer coisas inovadoras, sejam novos processos, novos modelos de negócio ou mesmo criar novas industrias.

Outra tecnologia que tem tudo para criar rupturas no cenário de negócios são as impressoras 3D. Esta tecnologia tem potencial de transformação muito grande na indústria, pois permite a fabricação precisa e complexa de produtos, ao mesmo tempo que elimina certas etapas de produção. O processo conceitualmente é simples: pegar uma imagem digital de um objeto e fatiá-lo em milhares de camadas, que são transferidos para a impressora que cria um objeto tridimensional ao produzir cada camada com plástico, areia ou outros materiais. Nos EUA já encontramos impressoras 3D por cerca de 1.500 dólares, capazes de produzir brinquedos e bijuterias.

A impressão 3D é uma tecnologia ainda incipiente, que não está pronta para fazer uma nova revolução industrial, mas nada impede que isso aconteça em um horizonte de menos de dez anos. Mesmo porque muitas patentes básicas já estão expiradas e outras mais devem expirar nos próximos anos, agilizando a entrada de novas start-ups no setor. Sua popularização deve aumentar rapidamente. Interessante que a Amazon já tem um setor dedicada a manufatura aditiva com impressoras 3D e seus suprimentos. O governo americano está colocando em ação uma estratégia de inovação na manufatura, chamado de NNMI - National Network for Manufacturing Innovation, onde um dos componentes principais é a manufatura aditiva com impressoras 3D (http://manufacturing.gov/nnmi_pilot_institute.html ).

Os primeiros resultados são animadores. A Ford, por exemplo, usa impressoras 3D para fazer moldes de protótipos de motores e peças de transmissão. A montadora americana leva quatro dias e gasta cerca de 3 mil dólares para imprimir o protótipo 3D do coletor de admissão de ar em um motor. Antes, sem uso das impressoras 3D levava quatro meses a um custo de 500 mil dólares. Outro exemplo interessante é a Shapeways (http://www.shapeways.com/ ) portal para venda de produtos customizados via impressoras 3D.

O potencial é enorme, pois pode-se fabricar produtos customizados e ao longo prazo pode afetar inclusive a economia de países que são fornecedores de mão de obra barata, pois esta mão de obra pode ser substituída pela produção em diversos locais, sem os tempos e custos de logística. Seus efeitos econômicos tem o potencial de destruir o valor da mão de obra barata como também de criar ou mudar determinadas profissões. Por exemplo, um artesão que hoje desenha e esculpe uma jóia, pode se concentrar apenas no design, deixando o trabalho de produção física a cargo de uma impressora 3D. Passa a ser um artista virtual.

O efeito das impressoras 3D será sentido diretamente na manufatura, mas também afetará outras áreas como varejo e distribuição, pois a impressão (ou fabricação?) de produtos localmente afetará toda a cadeia de distribuição e vendas. Talvez até gere conflitos entre os componentes das cadeias atuais. Vamos ver...

Outra tecnologia que merece ser atentamente observada é a computação cognitiva. Já temos alguns exemplos que, embora incipientes, mostram um potencial muito grande. Podemos falar do Watson da IBM (http://www.ibm.com/smarterplanet/us/en/ibmwatson/ ) e dos assistentes pessoais que estão nos smartphones, como o Siri da Apple, o Google Now e agora o Cortana da Microsoft. Recomendo a leitura de um artigo interessante que mostra a batalha entre estes três competidores. Vejam em http://bgr.com/2014/04/14/cortana-vs-siri-vs-google-now/ .

Seus efeitos a longo prazo ainda são desconhecidos, mas um sistema como Watson pode eliminar ou pelo menos reduzir em muito a necessidade de pessoas em determinadas atividades que hoje, aparentemente, estão à salvo da automatização. Exemplos? Profissionais em áreas administrativas de nível júnior ou intermediário, como advogados que fazem buscas e pesquisas em processos em papel. Um Dr. Watson especializado na área jurídica pode eliminar a necessidade deste trabalho manual.

A evolução da computação cognitiva passa também pela criação de novas tecnologias. Hoje, de maneira geral, um assistente pessoal depende basicamente da nuvem que está na retaguarda com todo o seu complexo conjunto de softwares de análises. Começa-se a investir no projeto de chips que permitam que grande parte da inteligência passe a residir no dispositivo e não na retaguarda, como atualmente. Vale a pena ler o artigo “Thinking in silicon”, da MIT Technology Review (http://www.technologyreview.com/featuredstory/522476/thinking-in-silicon/), que mostra os avanços nesta área. Também vale a pena conhecer o projeto do chip Zeroth, da Qualcomm, emhttp://www.qualcomm.com/media/blog/2013/10/10/introducing-qualcomm-zeroth-processors-brain-inspired-computing .

Bem, se houver interesse em conhecer mais a computação cognitiva recomendo a leitura do livro “Smart machines: IBM´s Watson and the Era of Cognitive Computing”.

Cada uma destas tecnologias, Internet das Coisas, impressoras 3D e computação cognitiva, está em um estágio diferente de evolução. Mas, indiscutivelmente, seus primeiros exemplos já mostram a viabilidade das ideias e conceitos que estão por trás.

Embora pareçam um pouco rudimentares hoje, sua curva de evolução tecnológica deve se acentuar nos próximos anos e seus efeitos de ruptura no cenário de negócios provavelmente provocarão descontinuidades, tanto em empresas, individualmente, quanto em setores corporativos inteiros. Não devem ser ignoradas.

Idg now: Em 2016, 25% das grandes empresas globais vão usar Big Data contra cibercriminosos


Big Data e analíticos agora são arma contra cibercriminosos. Segundo o Gartner, Inc., líder mundial em pesquisa e aconselhamento sobre tecnologia, os hackers estão cada vez mais ágeis no desenvolvimento de suas técnicas de invasão e mais rápidos em seus ataques. Contra eles, o uso de ferramentas de analytics na área de segurança e controle de fraudes gera economia de tempo e dinheiro nas empresas.

Em 2016, o Gartner prevê que 25% das grandes empresas globais terão adotado analíticos de Big Data para, ao menos, um caso de segurança ou detecção de fraude, acima dos 8% atuais, e obterão retorno positivo do investimento em até seis meses após a implantação.

O tema faz parte da agenda da Conferência Gartner Business Intelligence e Gestão da Informação, que acontece nos dias 13 e 14 de maio (Terça e Quarta-feira), no Sheraton São Paulo WTC Hotel, com apresentação de diferentes aplicações de Big Data nas empresas.

João Tapadinhas, diretor de pesquisas do Gartner e chairman da Conferência, afirma que as empresas podem obter economias significativas em tempo e dinheiro ao usarem os analíticos de Big Data para evitar crimes e infrações de segurança ao prevenirem perdas e aumentarem sua produtividade.

“Os analíticos de Big Data oferecem às empresas um acesso mais rápido a suas próprias informações. Permitem às empresas combinarem e correlacionarem informações externas e internas para visualizarem um cenário mais amplo de ameaças contra as organizações. Isto se aplica em muitos casos de uso de segurança e fraude, tais como, detecção de ameaças avançadas, ameaças internas e controle de contas”, afirma Tapadinhas.

Hackers Apressados

As informações necessárias para descobrir os eventos de segurança perdem valor ao longo do tempo e a análise de dados inteligente, feita a tempo, é essencial, na medida em que os cibercriminosos são mais rápidos ao cometerem os crimes. Há dois anos, por exemplo, os hackers gastavam tempo fazendo uma extensa ciberespionagem em seus alvos antes de atacar em busca de dinheiro ou informação. Atualmente, os mesmos cibercriminosos, sabendo que há muito mais medidas de segurança e prevenção de fraudes nas empresas ‘alvo’, pulam a fase de reconhecimento e simplesmente atacam diretamente.

Para resolver essas questões, as empresas confiavam em sistemas de monitoramento e detecção em silos, que eram otimizados para perda de dados e o monitoramento de usuários privilegiados. Agora, com os analíticos de Big Data, as empresas podem reunir os dados internos e externos em um único local e procurar padrões conhecidos de violações de segurança ou fraude, desenhando o perfil de contas, usuários ou outras entidades e e procurando transações anormais contra eles.

Dessa forma, recursos de Big Data podem reduzir o ruído e falsos alertas sobre os sistemas de monitoramento existentes ao enriquecê-los com dados contextuais, além de aplicar analíticos mais inteligentes. Isto é importante, especialmente, na medida em que o número de eventos de segurança aumenta substancialmente ano após ano.

As empresas, segundo o Gartner, conseguem permanecer ágeis e ficar à frente de indivíduos e atividades maliciosas, por meio de uma sintonia mais rápida de regras e modelos testados contra o fluxo de dados, quase em tempo real. É possível, por exemplo, associar os alertas de alta prioridade dos sistemas de monitoramento para detectar padrões de abuso e fraude e para obter um maior panorama do estado de segurança da companhia.

CIO: Cinco parâmetros para medir corretamente a qualidade do software

Jitendra Subramanyam

A qualidade de um aplicativo é mais do que simplesmente a soma da qualidade de seus componentes. O maior erro é esquecer esse fato

Avaliar a qualidade de um software é um mistério. Muitos profissionais de TI ficam frustrados sobre como definir e medir a qualidade das aplicações.

Não surpreendentemente, essas dificuldades resultam de um foco incorreto sobre o processo pelo qual o software é construído. Achamos que podemos definir essas atividades e medi-los com precisão para que as pessoas possam ver e focar nas atividades necessárias para criar, melhorar e gerenciar o software.

Mas de nada adianta ter um processo impecável se o produto não estiver em linha. Infelizmente, esse é o tipo de falha que corremos o risco quando não somos capazes de medir a qualidade do software.

Essa falta de visibilidade sobre a qualidade está na raiz de muitos problemas de gestão de software. Os executivos de negócios não conseguem entender por qual motivo um software custa tanto, demora tanto tempo para ser desenvolvido e ainda tem custos associados para mudá-lo. CFOs e CEOs, por sua vez, não conseguem entender por que o investimento em TI é tão alto.

Você deve estar pensando: "Será que não cuidamos da qualidade de testes de software?" Mas o teste é na melhor das hipóteses uma solução parcial. O teste não é realmente concebido para medir a qualidade estrutural do software - a qualidade do design de um aplicativo e da fidelidade de sua implementação para o projeto.

Um software bem concebido, bem arquitetado e bem executado possui alta qualidade. É fácil trabalhar com ele, mantê-lo e melhorá-lo para suprir as demandas dos negócios. Nós sabemos que medir a qualidade do software é bom, mas podemos, de fato, medi-lo? Sim, graças a produtos que realizam essa tarefa.

Em uma aplicação, a qualidade de qualquer componente depende de outros componentes que ele está integrado. A qualidade de um aplicativo como um todo é, portanto, mais do que simplesmente a soma da qualidade de seus componentes. O erro mais frequente em engenharia de software é esquecer esse fato.

Por isso, qualquer sistema que possa ajudá-lo nessa tarefa deverá medir cinco pontos:

1. Alcance: deve ser capaz de lidar com várias tecnologias. A maioria dos aplicativos modernos contém vários idiomas e sistemas que são ligados entre si de forma complexa.

2. Profundidade: deve ser capaz de gerar mapas completos e detalhados da arquitetura do aplicativo do Graphical User Interface (GUI), ferramenta de captura, processamento e análise de imagem, para o banco de dados. Sem essa detalhada arquitetura, seria impossível obter contextualização da aplicação.

3. Tornar o conhecimento explícito de engenharia de software:deve ser capaz de verificar a aplicação inteira contra centenas de padrões de implementação que codificam as melhores práticas de engenharia.

4. Métricas acionáveis: as métricas de qualidade não devem apenas informar, mas também orientar sobre como realizar a melhoria da qualidade do software, mostrando o que fazer primeiro, como fazê-lo, próximos passos etc.

5. Automatização: finalmente, deve ser capaz de realizar todos os pontos descritos acima de forma automatizada. Nenhum profissional ou equipe pode fazer essa tarefa, muito menos fazê-la em um curto espaço de tempo.

É importante medir a qualidade do software, mas é igualmente importante executar a atividade de forma correta. Essa ação é muito útil no desenvolvimento de software, mas, muitas vezes, é melhor não ter medição alguma do que contar com uma errada.

Folha de S.Paulo:Foco do Exército do Brasil é ter ciberdefesa consistente


ALEXANDRE ARAGÃO

Consideradas exitosas, as experiências com defesa cibernética no Rio+20, na Jornada Mundial da Juventude e na Copa das Confederações servem como guia para a atuação do Exército durante a Copa do Mundo, que começa daqui a exatos 31 dias.

A fala é do subchefe do CDCiber (Centro de Defesa Cibernética), coronel Alan Costa.

O órgão, criado em 2010, tem como meta a manutenção de defesas sólidas em sistemas do governo e operou pela primeira vez em 2012. Em grandes eventos, cerca de 300 funcionários atuam para o centro, alguns de parceiros como o Gabinete de Segurança Institucional e a Anatel.

"No Brasil, a gente divide a questão de defesa, segurança e guerra cibernéticas pelos níveis de decisão", explica o coronel Costa. "Quando falamos em segurança cibernética, isso está a cargo da Presidência da República."

Tais níveis de decisão são três: operacional e tático, político e estratégico –em que se insere o CDCiber. Assim, caso o Brasil desenvolva um programa cibernético ofensivo, seja com fins de espionagem ou de sabotagem, o CDCiber não seria o órgão encarregado de desenvolvê-lo.

A doutrina militar aplicada ao Exército Brasileiro não descarta ações cibernéticas ofensivas, a partir da definição do termo "ciberdefesa".

Segundo foi definido no 1º Seminário de Defesa Cibernética do Ministério da Defesa, ciberdefesa é um "conjunto de ações defensivas, exploratórias e ofensivas (...) com as finalidades de proteger os nossos sistemas de informação, obter dados para a produção de conhecimento de inteligência e causar prejuízos aos sistemas de informação do oponente".

MUDANÇA DE COMANDO

Em março, o CDCiber passou por sua primeira troca de comando. Saiu o general José Carlos dos Santos, que fundou a instituição, e assumiu o general Paulo Sergio Melo de Carvalho, antes lotado no Laboratório de Defesa Cibernética do IME (Instituto Militar de Engenharia).

Desde a criação do órgão, o Orçamento da União tem uma ação dedicada à implantação de um sistema de ciberdefesa. Em 2013, foram empenhados R$ 74,2 milhões, dos quais foram gastos, de fato, R$ 40,8 milhões (55%). O excedente empenhado pode ser usado no ano seguinte.

Neste ano, o valor reservado foi R$ 5,4 milhões, mas o Exército utilizou parte do dinheiro do ano anterior: até maio, foram gastos R$ 6,4 milhões.

Folha de S.Paulo:Palco de batalhas, território virtual tem estratégias de guerra e riscos reais


ALEXANDRE ARAGÃO

Setembro de 2007, Síria. Caças de Israel rasgam o céu do deserto, bombardeiam a usina nuclear de Al Kibar e a deixam em ruínas. A bateria antiaérea estava desativada: os computadores que rastreavam a área foram contaminados por um vírus israelense.

A Operação Orchard, como a manobra ficou conhecida, fez uso de um ciberataque e ocorreu graças a uma prova obtida via espionagem cibernética –um comissário sírio teve seu notebook hackeado pelo serviço secreto de Israel.

Esse tipo de invasão, pelo ciberespaço, gerou debate acerca de guerra em um "quinto domínio", afora terra, mar, ar e espaço sideral.

No mês passado, a Europa realizou seu maior exercício de defesa cibernética. A agência de segurança na rede do continente coordenou 200 órgãos de 29 países, o que dá a dimensão da importância que a ciberdefesa possui hoje.

"Apesar de ter sido criado pelo homem, o ciberespaço se tornou um domínio tão crítico para operações militares quanto terra, mar, ar e espaço sideral", escreveu William Lynn, então secretário-adjunto de Defesa dos EUA, em artigo na edição de setembro de 2010 da revista "Foreign Affairs". A partir dali, o Pentágono reconheceu o ciberespaço como área de combate.

Não foi surpresa. Em 2005, os EUA protagonizaram, com a ajuda de Israel, o maior ataque cibernético conhecido.

A partir de uma entrada USB de um notebook conectado ao sistema da usina nuclear de Natanz, no Irã, infectaram centrífugas e fizeram com que os equipamentos funcionassem de maneira errada, mas sem dar sinal do problema aos operadores. Batizado de Operação Jogos Olímpicos, o ataque ficou famoso pelo nome Stuxnet.

VIDA REAL

Com boa parte dos sistemas atrelados a computadores, países inteiros podem ter o fornecimento de energia ou a comunicação cortados por códigos maliciosos. Atualmente, a maior parte dos ataques visa a espionagem e sabotagem, sem vítimas fatais.

A despeito do potencial do combate cibernético, ainda não há definições consensuais sobre termos centrais.

O professor Thomas Rid, do departamento de estudos de guerra do King's College em Londres, busca uma definição científica para "ciberarma" em seu livro "Cyber War Will Not Take Place".

Escreve o autor que toda ciberarma trata-se de "código de computador usado, ou desenvolvido para ser usado, com o objetivo de ameaçar ou causar dano físico, funcional ou mental a estruturas, sistemas ou seres vivos".

Ele é o principal crítico do termo "ciberguerra", como aponta o título de seu livro (leia reportagem neste link ).

ESTRATÉGIA

Mas, afinal, no ciberespaço vale mais a pena atacar ou defender-se de ofensivas?

"Os ciberataques que são realmente perigosos requerem muita expertise para serem executados", escrevem Peter Singer e Allan Friedman, autores de "Cybersecurity and Cyberwar". Ter uma defesa sólida, argumentam, é muito mais vantajoso.

Existem cerca de 20 países trabalhando para isso, estima relatório produzido pela empresa americana de segurança eletrônica McAfee. O Brasil é um deles, mas a maioria, entretanto, não fala sobre seus programas voltados a defesa no ciberespaço.

"É completamente hipócrita", dispara a pesquisadora Camille François, da Universidade Harvard, que esteve em São Paulo em evento de governança da rede. "[Ciberguerra] é uma realidade no dia a dia do ciberespaço"