Até 2025, máquinas serão clientes e farão compras sozinhas

Novo estudo da Bain & Company revela que a tecnologia prevenirá 70 por cento das fatalidades na área da saúde e reduzirá em 80 por cento as transações em dinheiro.

 

Um foco profundo no aprimoramento da experiência do cliente se enraizou em muitos mercados emergentes, que estão bem à frente de seus concorrentes de mercados mais desenvolvidos na Europa e na América do Norte. Especificamente, a análise preditiva, os sensores em produtos e a experiência personalizada por Inteligência Artificial e Advanced Analytics tornaram-se os recursos mais amplamente utilizados nos mercados B2C e B2B, segundo resultados de um estudo recente da Bain & Company, com 700 empresas em todo o mundo, sobre 20 ferramentas para melhorar a experiência do cliente em quatro categorias: detecção, decisão, atuação e gerenciamento.

Até 2025, o sentimento do cliente será captado pelo uso de sensores biológicos (ex.: retina, temperatura do corpo, batimentos cardíacos) para detectar suas emoções. Na América Latina, 52%; Europa, 48%; América do Norte, 34%; e Ásia-Pacífico, 66%.

Biotecnologias em escala nano (ex.: dispositivos e sensores embutidos no corpo) ajudarão a prevenir 70% das fatalidades e melhorarão o tratamento de doenças crônicas. Na América Latina, 52%; Europa, 39%; América do Norte, 34%; e Ásia-Pacífico, 60%.

E as máquinas se tornarão clientes, à medida que as pessoas passarem a delegar decisões a seus bots. Na América Latina, 40%; Europa, 41%; América do Norte, 31%; e Ásia-Pacífico, 54%.

A  maioria das empresas ouvidas (pouco mais de 70%) acredita que os dispositivos de geolocalização vão avisar o varejista quando um comprador chegar à loja, para que este possa ser mais bem atendido. Que os varejistas saberão quando um cliente ficar sem um produto e o entregarão automaticamente. E que as transações em dinheiro encolherão em 80%, graças ao aumento dos pagamentos biométricos e por celular.

Três temas aparecem como prioritários pelos líderes: otimização de custo e previsão das necessidades do cliente, experiência personalizada e aprimoramento de privacidade e segurança.

Quais ferramentas os líderes pretendem adotar?

– Para otimização de custos e previsão das necessidades do cliente: Analytics preditiva (76%) e Inteligência Artificial (72%)

– Para privacidade e segurança: ferramentas biométricas (68%) e gerenciamento de privacidade (68%).

Muitas tecnologias servem para diferentes propósitos. Um exemplo é a análise preditiva, que pode ser usada em call centers e na previsão de estoques em lojas espalhadas pelo País.

O mix de ferramentas usado pelos líderes varia um pouco do resto do pacote. Eles estão investindo diferentemente em soluções que produzem três resultados: otimização de custo e previsão das necessidades do cliente; experiência personalizada; e aprimoramento de privacidade e segurança. Mas a ferramenta mais eficaz, relatam, é o gerenciamento de episódios. Já o menos eficaz é a automação da força de vendas.

Fonte: Cio.com.br

Lei de Proteção de Dados trará impactos a pessoas, empresas e governos

Norma traz regras sobre a coleta e o tratamento de informações de pessoas por empresas e órgãos do poder público

 

Lei Geral de Proteção de Dados (13.709) foi sancionada na última semana pelo presidente Michel Temer. A norma, que traz regras sobre a coleta e o tratamento de informações de pessoas por empresas e órgãos do poder público, ainda terá um período de transição de 18 meses antes de entrar em vigor. Ela terá impactos nas atividades cotidianas de usuários, empresas e órgãos da administração pública.

A lei trará consequências especialmente no mundo on-line, uma vez que os usuários têm registros e atividades coletados e tratados diariamente não somente por plataformas (como Facebook ou Google) mas por uma série de outras empresas sem que eles saibam. Mas também valerá no mundo off-line, como no pedido de CPF para compras em farmácias ou na hora de entrar em um prédio residencial ou comercial.

Segundo a norma, dados pessoais são informações que podem identificar alguém. Não se trata, portanto, apenas do nome. Mas um endereço ou até mesmo empego podem ser considerados como tal se permitirem identificar alguém quando cruzados com outros registros.

Dentro do conceito, foi criada uma categoria chamada de “dado sensível”, informações sobre origem racial ou étnica, convicções religiosas, opiniões políticas, saúde ou vida sexual. Registros como esses passam a ter nível maior de proteção, para evitar formas de discriminação. Esse tipo de característica não poderá ser considerado, por exemplo, para direcionamento de anúncios publicitários sem que haja um consentimento específico e destacado do titular. Já registros médicos não poderão ser comercializados.

Mas quem fica sujeito à lei? Todas as atividades realizadas ou pessoas que estão no Brasil. A norma valerá para coletas operadas em outro país desde que estejam relacionadas a bens ou serviços ofertados a brasileiros. Se um site de cursos on-line, por exemplo, comercializa aulas em português ou voltada a brasileiros, deverá cumprir as exigências da norma.

Finalidade específica e consentimento

Uma empresa não poderá coletar dados para fazer o que quiser com eles, mas deverá informar a finalidade. Um site que solicite dados de idade em um cadastro sem que isso tenha a ver com o serviço prestado pode ser questionado. A coleta só poderá ocorrer em situações específicas, sendo a principal delas mediante a obtenção de autorização do titular (o chamado consentimento). A tendência, portanto, é que os usuários passem a ser perguntados mais frenquentemente se dão sua permissão. Neste momento, será importante ler o motivo da coleta para identificar se os dados solicitados têm relação com a finalidade da atividade.

Ao aceitar repassar seus dados, como ao concordar com termos e condições de um aplicativo, as empresas passam a ter o direito de tratar os dados (respeitada a finalidade específica), desde que em conformidade com a lei. Entretanto, as empresas passarão a ter uma série de obrigações, como a garantia da segurança dessas informações e a notificação do titular em caso de um incidente de segurança. Para citar um exemplo, quando o Facebook tomou conhecimento que os dados 87 milhões de pessoas (entre elas brasileiros) haviam sido entregues à empresa de marketing digital Cambridge Analytica, ele não avisou aos usuários afetados.

“Antes, se uma empresa coletasse dados pessoais de clientes, não aplicasse nenhum tipo de segurança sobre esses os dados e depois sofresse algum ataque, dificilmente a empresa sofreria algum tipo de punição. Agora, a empresa terá que comprovar que tem uma estrutura de segurança preparada para assegurar a proteção dos dados e poderá receber multas caso não cumpra as regras”, explica Jeferson Propheta, diretor-geral da McAfee no Brasil, empresa que comercializa programas antivírus.

A norma permite a reutilização dos dados por empresas ou órgãos públicos, em caso de “legítimo interesse” desses. Estabelece, no entanto, que esse reúso só pode ocorrer em uma situação concreta, em serviços que beneficiem o titular e com dados “estritamente necessários”, respeitando os direitos dele. Um desafio da lei será exatamente a avaliação das situações específicas nas quais uma empresa alegue o “legítimo interesse” e se o reúso respeita as exigências.

Direitos

De outro lado, o titular ganhou uma série de direitos. Ele poderá, por exemplo, solicitar os dados que a empresa tem sobre ele, a quem foram repassados (em situações como a de reutilização por “legítimo interesse”) e para qual finalidade. Caso os registros estejam incorretos, poderá cobrar a correção. Em determinados casos, o titular terá o direito de se opor a um tratamento. A lei também permitirá a revisão de decisões automatizadas tomadas com base no tratamento de dados (como as notas de crédito ou perfis de consumo).

“O usuário de mídias sociais poderá solicitar a qualquer momento o acesso aos dados pessoais mantidos pelas plataformas. Além disso, terá o direito de solicitar a uma empresa que elaborou o seu score financeiro o acesso aos dados pessoais que justificaram a determinação do seu perfil (ainda que automatizada), inclusive para solicitar a correção de qualquer dado incorreto ou inexato”, exemplifica a advogada especializada em direito digital Vanessa Lerner.

O titular terá ainda direito à portabilidade de suas informações, assim como ocorre com número de telefone. A autoridade regulatória, se criada, deve definir no futuro como isso será feito. Mas a possibilidade de levar os dados consigo é importante para que uma pessoa possa trocar de aplicativo sem perder seus contatos, fotos ou publicações.

Crianças de até 12 anos ganharam garantias específicas na lei. A coleta fica sujeita a uma série de restrições, deve ser informada de maneira acessível para esse público e será condicionada à autorização de pelo menos um dos pais.

Negócios

Ao estabelecer garantias e responsabilidades para as empresas, a lei vai ter impacto importante nos negócios realizados no Brasil e com parceiras estrangeiras. A primeira mudança é que, com sua aprovação, o país passa a atender a exigências de outros países e regiões, como a União Europeia. Sem isso, as empresas nativas poderiam ter dificuldades para fechar negócios.

Na avaliação do gerente executivo de Política Industrial da Confederação Nacional da Indústria (CNI), João Emílio Gonçalves, as empresas terão que adotar uma série de medidas para se adequar à nova legislação quando entrar em vigor. Para além da garantia da segurança dos dados, terão que eleger um “encarregado de proteção de dados”, que terá a função de receber reclamações, comunicações, orientar funcionários da empresa, entre outras atribuições.

A maior preocupação dele será com as pequenas e médias empresas. Em alguns casos, a adequação à lei  poderá exigir revisão de processos. “De modo geral, as empresas que atuam no mercado internacional ou que realizam transferências internacionais de dados estão mais preparadas para lidar com a nova lei, pois já vinham se adaptando aos regulamentos de outros países, como os da União Europeia. O maior desafio será para as empresas menores e aquelas mais restritas ao mercado local”, alerta.

Autoridade regulatória

A normatização e fiscalização ficariam a cargo do que o texto aprovado no Senado chamou de Autoridade Nacional de Proteção de Dados. Contudo, os artigos que tratavam da criação da agência foram vetados pelo presidente Michel Temer, com a justificativa de que o Congresso não poderia aprovar um novo órgão. O governo informou que deve enviar um projeto de lei ao Congresso prevendo a implantação da autoridade.

Para o pesquisador da Rede Latino-Americana de Estudos sobre Vigilância, Tecnologia e Sociedade (Lavits) Bruno Bioni, a existência da autoridade é fundamental para que ela possa aplicar os princípios previstos na lei aos casos concretos. “A lei não faz menção a uma tecnologia em específico. Por isso, será necessária a figura da autoridade para traduzir esses direitos de acordo com desafios que novas tecnologias vão colocar. Se falamos hoje em Big Data [coleta massiva de dados] e inteligência artificial, daqui a pouco falaremos de computação quântica”, argumenta.

Para João Emílio Gonçalves, da CNI, a autoridade é importante desde já, e não apenas quando a lei entrar em vigor. “A criação da autoridade é fundamental. Sua função vai muito além da fiscalização e repressão. Na verdade, a agência será importante desde já, pois contribuirá para orientar as empresas e os cidadãos sobre obrigações e direitos previstos no novo regulamento”, destaca.

Disponível em: https://computerworld.com.br/2018/08/20/lei-de-protecao-de-dados-trara-impactos-a-pessoas-empresas-e-governos/

Especialistas ensinam 5 passos para lucrar com os dados de sua empresa

“Monetizing Your Data: A Guide to Turning Data into Profit-Driving Strategies and Solutions” é o nome do livro recentemente lançado por uma dupla de especialistas em análise de dados que ensina empresários a transformar os dados de suas companhias em lucros reais. De acordo com Andrew Roman Wells e Kathy Williams Chiang, as empresas podem obter ainda mais resultados financeiros ao analisar melhor seus dados.

Chiang (vice-presidente de Business Insights da Wunderman) se juntou com Wells (CEO de Management Consulting da Aspirent) e viu a oportunidade de unir seus dois focos de atuação, uma vez que, enquanto ela tem sua direção mais voltada para a análise de dados, o empresário trabalha com líderes e estratégias.

Ao observarem o quanto esses dois processos costumam funcionar de maneira desconexa dentro das empresas em geral, eles descobriram que poderiam “trazer mais objetividade para o lado do planejamento e mais significado e propósito para o lado dos dados”. Ainda de acordo com a VP, “isso mostra o quanto [a análise] quantitativa e qualitativa pode ser conectada ao ambiente empresarial”.

As cinco principais fases do processo

De acordo com o livro lançado pela dupla de experts, há cinco fases essenciais a serem avaliadas e seguidas por empresários para que os dados de suas companhias sejam convertidos em resultados. São elas:

1. Descoberta

Nessa etapa inicial, a recomendação é: focar na natureza dos problemas ou nas oportunidades que estão à frente da empresa, tentando montar uma imagem clara do cenário em que a companhia se encontra, a fim de determinar quais ações tomar a seguir e prever quais serão os impactos gerados por essas ações.

Segundo Wells, essa fase de descoberta é a que vai criar a base para compreender os objetivos do negócio, permitindo que sejam criados problemas hipotéticos que serão solucionados antes mesmo que se tornem reais. “É a plataforma de lançamento para o restante do projeto”, afirma.

2. Análise de decisões

A segunda fase envolve uma postura mais analítica quanto à tomada de decisões da empresa. Para Chiang, cabe aqui chegar à raiz dos problemas, procurando vieses que a equipe possa estar trazendo para o problema em questão. Isso porque é possível que os membros da equipe já tenham tomado decisões ou pensado em soluções previamente, e só estejam procurando dados para confirmá-las.

Para Chiang, esse segundo passo serve para “ser mais objetivo sobre quais alternativas valem a pena ser consideradas, e ser mais ciente das predisposições que a equipe possa estar trazendo ao projeto”.

3. Estratégias de monetização

Passadas as etapas iniciais, é chegada a hora de determinar se as soluções propostas têm algum valor. Conforme as avaliações feitas por Chiang em seu livro, na era do Big Data, “o que constantemente está faltando é o valor”, e, nessa parte do processo, o empresário deve testar suas análises para ver se elas geram alguma vantagem.

4. Análises ágeis

De acordo com Wells, analisar agilmente os dados de sua empresa permitirá a tomada de decisões e elaborar soluções mais rapidamente. E essa agilidade significa envolver todos os diretores da companhia no processo, liberando o acesso aos dados sem que seja necessário passar por sistemas burocráticos que gastam tempo e recursos à toa.

5. Ativação

A última fase listada pela dupla de especialistas em seu livro é a etapa da ativação, que envolve “endurecer” o processo. Segundo Wells, esse passo “assegura que os dados sejam válidos, que os cálculos estejam corretos e que os usuários estejam engajados no processo”. Essa fase é listada como a última e vem logo após a etapa de elaboração de análises ágeis, pois, uma vez que os membros da equipe estejam participando da coleta e da análise de dados, eles confiarão naquelas informações e isso fará com que eles se comprometam mais com o projeto.

 

Disponível em: https://www.tecmundo.com.br/empreendedorismo/115703-especialistas-ensinam-5-passos-lucrar-dados-empresa.htm

Conheça as linguagens de programação que mais crescem no mercado de TI

A área de tecnologia da informação vai continuar crescendo em 2018 e por isso o mercado vai precisar de mais profissionais qualificados, especialmente em programação. A possibilidade de ter uma remuneração melhor atrai cada vez mais candidatos para atuar como programadores e desenvolvedores. Se animou? Então lembre-se que as linguagens de programação estão sempre sendo aperfeiçoadas, portanto, você precisa continuar estudando e se atualizando constantemente para não enferrujar.

Mas são tantas as possibilidades e cursos que às vezes fica difícil decidir onde concentrar os estudos. Para te ajudar nessa tarefa separamos algumas linguagens de programação que vão crescer ou continuar em alta neste novo ano.

Python

Python é uma das linguagens de programação mais utilizadas nos últimos anos e não deve ser diferente nos próximos tempos. O aumento das demandas em projetos de machine learning, por exemplo, fez com que crescesse muito sua utilização para análise de dados e, consequentemente, também se faz necessário ter mais profissionais que saibam programar em Python.

É uma linguagem versátil e dinâmica, por isso é utilizada por profissionais de frentes diversas, como desenvolvedores web, desktop e full-stack, DevOps, sysadmin, engenheiros de software, entre outros. Não que seja uma regra, mas pode ser um grande diferencial saber programar em Python. Portanto, se você já conhece o sistema ou está pensando em se aprofundar nele, vá em frente.

Java

Tem gente que aposta que o Java tende a cair entre as tantas opções disponíveis em linguagens de programação, mas o mercado diz o contrário. As grandes empresas e plataformas ainda prefere utilizar Java, portanto, existem oportunidades para quem sabe utilizar essa linguagem orientada a objetos.

O Java costuma ser muito utilizado em aplicativos desenvolvidos para Android e é uma boa escolha para quem está em início de carreira na programação. Tem, sido bastante requerido em vagas para desenvolvedores web, engenheiros ou arquitetos de software, entre outros.

 

Go

Go é uma linguagem relativamente nova, lançada em código aberto pelo Googleem 2009, e que atualmente dá suporte a grandes propriedades web da gigante das buscas. O Go é uma das linguagens de programação feitas para a computação moderna, então ela foi pensada para atuar em processadores multicore, sistemas em rede e na computação em nuvem.

Forte concorrente do Java, é um excelente diferencial principalmente para desenvolvedores full-stack, especialistas em DevOps e cientistas de dados.

 

Kotlin

Outra moderna alternativa ao Java, o Kotlin também figura entre as promessas das linguagens de programação no futuro próximo. Considerada fácil e intuitiva de aprender e usar, tem subido no conceito de desenvolvedores. Um salto na utilização do Kotlin também foi marcado depois que o Google anunciou a linguagem como uma das oficiais para desenvolvimento de aplicativos para Android.

O Kotlin foi lançado em 2011, ainda mais novo que o Go, e caminha bem na busca de maior espaço. Os desenvolvedores de Android vão ganhar um diferencial incrível ao apostar no conhecimento do Kotlin para destacar em seu currículo.

 

R

O R é uma antiga linguagem de programação e ambiente de desenvolvimento ao mesmo tempo e também cresce na onda do machine learning. É uma linguagem para gráficos e cálculos estatísticos, por isso tem sido amplamente utilizada para análises e programas de estatísticas. Os usuários colaboram com expansões, chamadas de pacotes, o que tem contribuído para o crescimento do R entre as principais linguagens de programação.

A linguagem é antiga porque data da década de 60, mas é muito utilizada entre cientista de dados que lidam com automação de machine learning. Se você pretende trabalhar com desenvolvimento de projetos de machine learning, data warehouse ou projetos que envolvam estatísticas e predição, aposte na linguagem R.

 

Disponível em: https://www.tecmundo.com.br/software/125425-conheca-linguagens-programacao-crescem-mercado-ti.htm

Mulheres em TI: exceção, só que não

Presença e interesse de mulheres na área de tecnologia é uma tendência irreversível.

Um estudo recente da CompTIA (2014) indica que, mesmo com a maioria masculina no mercado, ocupando 76% dos cargos de tecnologia, a quantidade de mulheres que se sentem realizadas, reconhecidas e satisfeitas com suas remunerações é superior a dos homens (79% a 70%, 71% a 61% e 71% a 60%, respectivamente). Além disso, 73% das mulheres acreditam que usam suas habilidades e talentos no trabalho, contra 65% dos homens.

No entanto, as mulheres sofrem muitas dificuldades e impedimentos na área. Quantos processos seletivos recusam mulheres com filhos? Quantas insinuações preconceituosas já não ouvimos trabalhando? Acredito que exemplos como Ginni Rometty, CEO da IBM, não ligaram muito para isso; pelo contrário. As mulheres que escolhem trabalhar nesse mercado se comprometem, e pra valer.

E esse fato é histórico. Desde o início da computação, mulheres como Ada King, considerada a primeira programadora da história, estiveram presentes e estimulam profissionais de todo o mundo a estudar e a se profissionalizar nessa área. Grace Hoper, conhecida como criadora da expressão bug após encontrar um inseto dentro de um computador, também é um exemplo — dentre outras inspirações.

Como em qualquer outra área, as mulheres devem escolher e lutar pelos objetivos que desejarem. Os exemplos de ontem são os de hoje e os exemplos de hoje serão os de amanhã, o que vai tornar a presença das mulheres no segmento de TI cada vez mais irreversível. Questionamentos relacionados à falta de mulheres no mercado de tecnologia serão cada vez mais inadequados e sem sentido. O certo a se questionar é: por que ainda existem pessoas que fazem algum tipo de distinção em relação a isso? A tecnologia está avançando, que tal realizarmos um upgrade também?

 

Fonte: http://idgnow.com.br/ti-corporativa/2018/02/19/mulheres-em-ti-uma-excecao-so-que-nao/

 

Banco digital do Bradesco, Next adota chatbot para atendimento a clientes

Solução utilizada é o chat cognitivo BIA, já disponível para clientes Bradesco

Next, banco digital criado pelo Bradesco, passará a utilizar inteligência artificial para agilizar o atendimento aos seus clientes. A solução utilizada é o chat cognitivo BIA (Bradesco Inteligência Artificial), já disponível para clientes Bradesco no celular e para os funcionários das agências tirarem dúvidas sobre os produtos e serviços do Banco.

A plataforma foi construída com o Watson, plataforma de computação cognitiva da IBM. Com a ferramenta, o cliente poderá tirar dúvidas sobre serviços e funcionalidades do Next, a qualquer hora, 7 dias por semana, com agilidade e fluidez. Caso deseje falar com o time de consultores, em situações que necessitem de intervenção humana com mais personalização, a BIA direcionará automaticamente a conversa, sem qualquer interrupção no atendimento.

Jeferson Honorato, Superintendente Executivo do Next, comenta que um público hiperconectado quer suporte das soluções que consome a todo momento, com qualidade, agilidade e fluidez. “A solução que a inteligência artificial traz vai perfeitamente ao encontro dessas necessidades”, afirma.

O Chat, como qualquer outra tecnologia, estará em constante evolução. Para isso, o Next dispõe de uma equipe focada na tarefa de aperfeiçoar diariamente a plataforma.

“Como já temos a experiência com a Inteligência Artificial aplicada ao Bradesco, sabemos que a computação cognitiva é, realmente, um ecossistema vivo e dinâmico, onde a tecnologia e as pessoas coexistem e passam, juntas, por um processo de aprendizado mútuo. Por isso, o conteúdo do Next é elaborado com base em pesquisas sobre o que nosso cliente precisa. A é constantemente aperfeiçoada, conforme feedback e demanda de quem usa o nosso serviço”, completa Honorato.

 

Fonte: http://computerworld.com.br

Infodive IT atinge nível Platinum no PartnerWorld, programa de parceria da IBM

 

A Infodive está, a partir de agora, no 4º e maior nível de parceria do PartnerWorld, programa de canais da IBM. Somente nove empresas brasileiras estão nesse patamar, e apenas 200 no mundo inteiro.

Para atingir a categoria Platinum, quatro aspectos da Infodive foram analisados: competências (conhecimento das soluções), vendas (renda realizada com a IBM), satisfação de clientes e casos referência que tenham demonstrado inovação.

De acordo com Lisiane Giaretta, Diretora da Infodive, “Essa é uma conquista de toda a empresa, que demandou o envolvimento de todos, tanto colaboradores, nossos clientes e nosso distribuidor. A Infodive trabalha com esse foco há bastante tempo, ano a ano batalhando para chegar nesse patamar de reconhecimento.  Participamos de muitos eventos e treinamentos, sempre engajando nossos colaboradores para o mesmo objetivo. E foi uma surpresa, estamos muito felizes! A IBM deu sentido à Infodive, ela é o “carro chefe” junto aos nossos clientes e portanto muito importantes para nós.”

Para a IBM, parceiros Platinum são empresas que agregam valor a todo o ecossistema da IBM, seja com a própria empresa, clientes ou outros parceiros.

A Infodive é representante IBM há sete anos.

Watson IBM diagnostica forma rara de leucemia em paciente no Japão

ibm-watson-healthcare

Médicos da Universidade de Tóquio reportaram que o sistema de inteligência artificial da IBM, o Watson, diagnosticou um tipo raro de leucemia em uma mulher de 60 anos, que foi diagnosticada incorretamente meses antes.

E o Watson levou apenas 10 minutos para isso. A tecnologia conseguiu o feito ao comparar as mudanças genéticas da paciente com uma base de dados de 20 milhões de artigos científicos sobre câncer. Ao oferecer um diagnóstico preciso, médicos agora conseguirão dar um tratamento apropriado e mais assertivo a paciente, aumentando as chances de sua recuperação. Segundo a mesma universidade, Watson também diagnosticou outra forma rara de leucemia em outro paciente.

O sistema de computação cognitiva da IBM tem sido alimentado com casos e milhões de páginas de artigos de pesquisa desde 2011 e desde 2013 se tornou disponível para médicos e companhias de seguro de saúde.

Pesquisadores ao redor do mundo têm colocado sistemas de inteligência artificial como a próxima fronteira da medicina. O recente diagnóstico feito pelo Watson reforça como a tecnologia pode ser útil no contexto médico. Com tecnologias similares, médicos humanos não precisariam gastar anos em pesquisa para identificar uma doença rara ou esperar para que outros pesquisadores e universidades avancem a pesquisa. Para isso, eles só precisariam informar os dados de um paciente. E com um diagnóstico preciso, o processo de cura fica mais próximo da realidade.

Além de diagnosticar doenças raras, o Watson poderia oferecer doses ideais de medicamentos para cada paciente baseado em seu histórico genético.

A capacidade do Watson para analisar o significado e contexto da linguagem humana e rapidamente processar informações para encontrar respostas precisas, pode auxiliar nas tomadas de decisão de médicos e enfermeiros, identificar conhecimentos e informações enterrados em grandes volumes de informação e oferecer respostas que não podem ter considerado para ajudar a validar as suas próprias ideias ou hipóteses.

Os pesquisadores da IBM passaram quatro anos desenvolvendo o Watson. A máquina é capaz de processar 80 trilliões de operações (teraflops) por segundo. Tem cerca de 2.800 núcleos de processadores IBM Power7 e 16 terabytes de memória funcional. Na construção do Watson, a IBM usou tecnologia do MIT, University of Texas, University of Southern California, Rensselaer Polytechnic Institute, University at Albany, University of Trento, University of Massachusetts e Carnegie Mellon University.

*Foto: Divulgação/IBM
fonte: http://idgnow.com.br/internet/2016/08/08/watson-ibm-diagnostica-forma-rara-de-leucemia-em-paciente-no-japao/

AWS, Microsoft, IBM e Google concentram 55% do mercado global de IaaS

 

cloud_nuvem_1

Segundo um estudo da Synergy Research Group, mais da metade do mercado está nas mãos de quatro gigantes norte-americanos de tecnologia

Diversas companhias lutam por um pedaço do mercado global de infraestrutura cloud. Segundo um estudo da Synergy Research Group, mais da metade desse mercado está, contudo, concentrado nas mãos de quatro gigantes norte-americanos de tecnologia.

A Amazon Web Services, sozinha, detém quase um terço (31%) de market share, seguida por Microsoft (11%), IBM (8%) e Google (5%). Vale ressaltar que o levantamento considera tanto negócios de IaaS quanto plataforma como serviços (PaaS) e serviços de nuvem privadas.

“O que diferencia a AWS de seus concorrentes? A presença global, a musculatura dos investimentos em marketing, a habilidade de financiar altos investimentos em data center e, em muitos casos, a determinação de vencer”, lista John Dinsdale, analista da consultoria.

Além da posição de dianteira, os quatro líderes de mercado vêm conseguindo uma expansão acelerada em suas receitas, o que amplia ainda mais sua posição de liderança frente ao restante dos competidores, que traz nomes como Alibaba, Fujistsu, NTT, BT e Orange.

A Synergy calcula que o mercado global de serviços de infraestrutura em nuvem movimentam cerca de US$ 28 bilhões, sendo que grande parte desse montante concentra-se na América do Norte (o que, de certa forma, justifica o fato de os líderes serem empresas de origem norte-americana).

Fonte: http://computerworld.com.br/aws-microsoft-ibm-e-google-concentram-55-do-mercado-global-de-iaas

IBM cria neurônios artificiais para avançar computação cognitiva

Neurônios artificiais conseguem sustentar billhões de mudanças de ciclos, que significariam anos de operação

IBM-neurons_625

Cientistas da IBM criaram neurônios e sinapses artificiais usando memórias de mudança de fase (PCM, na sigla em inglês) que imita a capacidade cognitiva de aprendizado de nosso cérebro.

É a primeira vez que pesquisadores conseguiram criar o que eles chamam de “neurônios spiking” usando matérias que mudam de fase para armazenar e processar dados. A descoberta é um marco no desenvolvimento de energia e redes neurais densas que poderia ser usada para aplicações de computação cognitiva.

Em resumo, a tecnologia poderia ser usada para melhorar os processadores de hoje a fim de realizar computações em aplicações como detecção de correlação de dados para Internet das Coisas (IoT), no mercado de ações e mensagens de mídias sociais a uma taxa incrivelmente rápida.

A pesquisa da IBM “Stochastic Phase-Change Neurons” é resultado de um esforço de dez anos e apareceu nessa semana na capa do jornal Nature Nanotechnology.

No entanto, Evangelos Eleftheriou da IBM diz que ainda levarão vários anos antes do mercado ver um chip PCM. Mas a recente descoberta é um avanço crucial em seu desenvolvimento.

A aleatoriedade do PCM imita neurônios 

Inspirada na forma como o cérebro humano funciona, cientistas teorizaram por décadas que poderia ser possível imitar as capacidades computacionais versáteis de grandes populações de neurônios. Entretanto, fazer o mesmo em densidades e microvoltagem comparável aos sistemas biológicos tem sido um desafio significativo, até agora.

A chave para a tecnologia é a variação aleatória dos neurônios artificiais ou comportamento randômico ou estocástico.

Em estática, uma variável aleatória pode ser usada para determinar possíveis resultados em análises de dados. Em outras palavras, consegue determinar a probabilidade das correlações de dados.

“Basicamente, opera como o cérebro opera, com pulsos curtos de voltagem vindos através de sinapses que excitam neurônios”, explicou Tomas Tuma, autor líder do artigo e cientista da IBM Research em Zurique.

“Nós usamos um pulso curto de, digamos, um nanossegundo para induzir a mudança no material”.

O comportamento randômico do PCM, diz Tuma, é fundamental na computação de base populacional onde cada neurônio responde diferentemente e permite novas formas de representar sinais e computação.

“Normalmente, pessoas tentam esconder o estocástico, ou se você quiser uma aleatoriedade de boa qualidade você tem que induzi-la artificialmente. Aqui, nós mostramos que temos um bom padrão estocástico nativo por que entendemos os processos de cristalização e amorfização nas células de mudança de fase”, diz Tuma.

Os neurônios artificiais de mudança de fase que estão sendo criados hoje têm apenas 90 nanômetros (nm) de tamanho, mas pesquisadores disseram que eles têm o potencial para reduzir o processo para 14nm de tamanho (um nanômetro é um bilionésimo de um metro).

Pesquisadores da IBM organizaram centenas de neurônios artificiais em populações e os usaram para representar sinais rápidos e complexos. Os neurônios artificiais também mostraram sustentar bilhões de ciclos de comutação, que corresponderiam a vários anos de operação, com uma frequência de atualização de 100Hz.

A energia exigida para cada atualização de neurônio era menos do que cinco picojoule e a potência média inferior a 120 microwatts. Em comparação, leva-se 60 milhões de microwatts para alimentar uma lâmpada de 60 watts.

IBM-quadro-neurons

Processadores neurológicos poderiam descarregar cargas de trabalho intensivas de dados

Neurônios artificiais poderiam ser usados para criar processadores neurológicos que poderiam residir lado a lado e complementar processadores padrões, descarregando intensivas cargas de dados, segundo Tuma.

Companhias como a IBM, Micron, Samsung e Everspin têm experimentado PCM como um tipo de memória não-volátil por que oferece até 100 vezes a performance e resistência a flash NAND. Uma vez que é muito caro para fabricá-la, a tecnologia ainda precisa ver uma absorção mais significativa no mercado.

A PCM também não sofre com problemas de dados corrompidos associados ao flash NAND que armazena vários bits por célula.

No entanto, as pesquisas mais recentes não estão associadas com a criação de uma nova memória não-volátil. Em vez disso, a PCM está sendo usada para criar um novo tipo de processador.

“Estamos pesquisando materiais de mudança de fase para aplicações de memória por mais de uma década, e nosso progresso nos últimos 24 meses tem sido notável”, ressaltou Evangelos Eleftheriou, da IBM. “Nesse período, temos descoberto e publicado novas técnicas de memória, incluindo memória projetada, armazenando, pela primeira vez, 3 bits por célula na memória de mudança de fase, e agora estamos demonstrando as capacidades poderosas de mudança de fase à base de neurônios artificiais”.

Os neurônios artificiais consistem em materiais de mudança de fase, incluindo o germânio, antimônio e telluride. Os materiais que são a base dos discos Blue-ray de hoje. No entanto, os neurônios artificiais não armazenam informação digital; eles são analógicos, assim como as sinapses e neurônios em nosso cérebro.

Na demonstração publicada, a equipe aplicou uma série de impulsos elétricos aos neurônios artificiais, o que resultou na cristalização progressiva do material de mudança de fase, em última análise, fazendo com que o neurônio disparasse. Na neurociência, esta função é conhecida como a propriedade integra-e-dispara dos neurônios biológicos. Esta é a fundação para a computação baseada em eventos e, em princípio, é semelhante à forma como o nosso cérebro desencadeia uma resposta quando tocamos algo quente.

Explorar esta propriedade, mesmo um único neurônio pode ser usado para detectar padrões e descobrir correlações em fluxos em tempo real de dados baseados em eventos, disseram os pesquisadores.

A capacidade de analisar grandes volumes de dados em uma fração de segundo.

Por exemplo, com a Internet das Coisas, sensores conseguem coletar e analisar volumes de dados meteorológicos para previsões mais rápidas.

Os neurônios artificiais podem também detectar padrões em transações financeiras para encontrar discrepâncias ou usar dados de mídia social para descobrir novas tendências culturais em tempo real. Grandes populações desses neurônios de alta velocidade e baixa energia poderiam ser usados também em coprocessadores neuromórficos com unidades de memória e processamento colocalizados.

Fontehttp://idgnow.com.br/ti-corporativa/2016/08/04/ibm-cria-neuronios-artificiais-para-avancar-computacao-cognitiva/