Tag: android

  • Adobe Lightroom CC – O melhor app para tirar fotos com o smartphone

    Adobe Lightroom CC – O melhor app para tirar fotos com o smartphone

    Quando os primeiros celulares com câmera apareceram, eles possuíam sensores simples e baixa qualidade. Com a chegada dos smartphones, a câmera começou a ser uma das características mais exigidas em qualidade pelos consumidores. Porém, as técnicas de pós-processamento e compressão aplicadas nas fotos podem entregar um resultado indesejado ou com uma qualidade aquém do que a câmera pode entregar.

    Para resolver esse ponto, diversos apps foram lançados. A Adobe, com conhecimento de causa, resolveu lançar uma versão do Adobe Lightroom CC para smartphones e adicionou a opção de câmera profissional. O Lightroom já é o aplicativo para desktop mais usado por fotógrafos profissionais há anos e agora a versão para mobile e desktop compartilham as mesmas opções (assim como está acontecendo com diversos outros programas da Adobe).

    Caso não queira ler o texto, assista o vídeo vertical demonstrando o uso do aplicativo.

    O Adobe Lightroom CC está disponível para Android e iOS de forma gratuita. No caso do Android, algumas funções disponíveis estarão disponíveis dependendo do modelo aparelho. Essa distinção do Android acontece por causa da forma com que o app comunica-se com a câmera, obrigando o desenvolvedor a criar algumas soluções específicas por aparelho. Por isso, consulte a página do GooglePlay, caso use Android, para verificar quais dispositivos possuem as funções completas. No caso do iOS, todas as funções estão disponíveis para os dispositivos com ao menos 12Megapixels na câmera.

    Câmera

    Assim que você abre o app do Adobe Lightroom CC, você verá, no canto inferior direito, a opção de abrir a câmera. Além disso, ele já carrega as fotos mais recentes e álbuns. 

    Tela inicial do Adobe Lightroom

    De início temos uma câmera comum, com funções comuns da maioria das câmeras digitais, como temporizador e grade. Tirar uma foto com as funções automáticas da câmera já apresentam uma qualidade muito boa em relação aos apps de câmeras normais e até os nativos de alguns smartphones.

    Câmera do Adobe Lightroom

    A primeira diferença entre as fotos tiradas com a câmera normal e as câmeras dos smartphone é a possibilidade de tirar fotos em DNG. DNG é uma sigla para Digital Negative (Negativo Digital), um formato RAW da Adobe. RAW são formatos de arquivos raiz, ou seja, são as fotos tiradas diretamente pela câmera sem qualquer compressão ou pós-processamento. A vantagem tirar fotos em RAW é que elas são mais ideais para uma edição posterior, pois guardam informações que normalmente são perdidas com a compressão JPG, principalmente quanto a luminosidade. Como nem tudo são flores, esse formato ocupa mais espaço do seu smartphone, então é aconselhável que você use smartphones com ao menos 32GB de espaço interno ou cartão de memória.

    Mas atenção, nem todo smartphone Android compatível com o app possui essa opção. Consulte a página do Adobe Lightroom CC, na Google Play Store para mais detalhes.

    Para ativar o modo DNG, clique na sigla (JPG ou DNG) no topo ou lateral do app (dependendo da orientação)
    Para ativar o modo DNG, pressione a sigla (JPG ou DNG) no topo ou lateral do app (dependendo da orientação)

    Dentre as opções comuns disponível em todas as áreas da câmera, inclusive no modo automático, vale destacar o Recorte de Layout.  Trata-se de uma opção para demarcar com listras todos os pontos da imagem que estão em branco absoluto. Em termos de fotografia, isso é importante para saber onde a foto pode estar “estourando”, indicando áreas muito brancas que não poderão ser editadas posteriormente (pois a diminuição do brilho só a deixaria cinza).

    Mas onde o Lightroom se destaca de verdade é no modo PRO. O modo profissional do Adobe Lightroom CC dá opções de exposição, velocidade do obturador, ISO, compensação de cor e, o mais legal, foco manual. Por questão de objetividade, vamos nos concentrar nas funções principais para uma melhor foto em termos de fidelidade, podendo você depois explorar melhor as ferramentas.

    O modo de exposição permite você adicionar ou remover luminosidade à imagem. O controle de Exposição está definido pelo botão Exp, no canto inferior ou lateral direita, dependendo da orientação. Basicamente é você deixar a imagem mais clara ou mais escura.

    Controle de Exposição

    Uma das ferramentas mais importantes é a Velocidade do Obturador, definido pelo botão Sec. A velocidade do Obturar controla o tempo em que o obturador vai ficar aberto para gravar a imagem no sensor. Isso significa que quanto mais tempo aberto, mais luz e, por consequência, mais informação será armazenada.

    A velocidade, nessa ferramenta, é definida pela fração de segundo, indo de 1/10000 à 1/4. Quanto mais rápido, menos luz vai entrar, mas você conseguirá pegar imagens onde tem mais movimento (como corridas, eventos esportivos, etc. – use em ambientes claros), e quanto mais lento mais luz vai entrar, o que deixará a foto bem mais nítida, porém você deverá deixar a câmera imóvel  – ideal uso de tripé – por mais tempo. A velocidade baixa é excelente para fotos em locais mais escuros (dispensando, muitas vezes, até o flash), natureza morta e objetos que exijam muitos detalhes. Você deverá ajustar essa configuração de acordo com cada caso.

    Controle de Velocidade do Obturador

    A segunda função mais importante é o Foco Manual, definido pelo ícone [+]. Por padrão o foco está no automático e pode ser definido com o toque na tela, como a câmera nativa. Porém, você poderá controlar o foco manualmente, mesmo com smartphone de apenas uma câmera, e isso dá resultados muito interessantes. Vale salientar que isso é um foco real e não um pós-processamento comum em muitos aparelhos. A linha do foco vai de mais perto (ideal para macros) para mais longe (ideal para imagens em campos abertos), que você pode alternar pelo ponto que você deseja que seja o seu assunto da foto.

    Foco manual Adobe Lightroom CC

    Você deve ter reparado que o objeto em foco ficou com um contorno verde. Essa detecção de bordas é fundamental para você entender bem onde está o foco. Diferente de câmeras profissionais, que possuem o visor (Viewfinder) – o buraquinho para colocar o olho – o smartphone é totalmente dependente da tela. Como uma tela possui limitações, as bordas ajudam a ter mais certeza de onde está o foco da imagem.

    Lembrando que o resultado final, obviamente, não gravará as linhas de bordas.

    O último modo a ser apresentado é o HDR. O High Dynamic Range (HDR) é uma técnica de sobreposição de diversas fotos tiradas em exposições diferentes, que são mescladas para tirar uma foto mais natural.

    Quando olhamos para uma parede com uma janela, ou o céu através dos galhos das árvores, nossos olhos e nosso cérebro conseguem interpretar as nuances de luminosidade em cada assunto. A lente, entretanto, não consegue fazer o mesmo, precisando focar a luminosidade a partir de um ponto específico. Quando você alterna a exposição você está justamente modificando o ponto de qual luminosidade o sensor deve se basear.

    Para poder usar o modo HDR é importante que o usuário use um tripé ou não se mexa, pois várias fotos serão tiradas em um curto intervalo de tempo, em exposições diferentes. O processamento do HDR ocorre aos poucos, em plano de fundo, pelo aplicativo, de forma que poderá demorar um pouco para a imagem aparecer na biblioteca. Esse processamento consiste na junção inteligente dessas imagens ao ponto que seja ajustado para que os tons fiquem mais fiéis ao olho humano. O Adobe Lightroom CC ainda irá fazer um ajuste automático da imagem, que poderá ser desfeito ou modificado de acordo com a vontade do fotógrafo.

    Modo HDR
    No modo HDR você ainda tem ainda algumas ferramentas, como foco e exposição.
    Resultado HDR
     Foto após o processamento do HDR

    Ferramentas de Edição

    Após tirar a fotografia, você provavelmente irá querer ajustar brilho, contraste, nitidez, cores, etc. O Adobe Lightroom CC mobile traz as mesmas opções que estão incluídas na versão desktop. Para quem é assinante da Adobe, ainda tem algumas opções a mais, mas iremos nos concentrar nas principais opções disponíveis na versão gratuita.

    Entretanto, se você possuir um dos planos, a foto será sincronizada com o Adobe Cloud, ficando disponível na versão web ou desktop do Lightroom, podendo você, se for de sua preferência, editar a foto no iPad, Tablet Android ou no computador.

    Para iniciar a edição, basta voltar para a biblioteca e escolher a foto que você deseja editar. Lembre-se que imagens em DNG terão um resultado melhor para edição.

    Biblioteca do Lightroom
    Foto de acerola

    Iniciando pelo controle de luminosidade, o usuário poderá editar o brilho, contraste e pontos claros e escuros específicos na imagem. Apenas com uma foto RAW (neste caso, DNG) você vai conseguir realmente clarear uma foto escura. Se você tentar fazer isso com uma foto JPG, por conta da compactação, simplesmente você vai ter um acinzentado e não os tons reais de cores da imagem.

    Controle de luminosidade

    Quanto ao controle de cores, vale uma observação importante. Além de temperatura, matiz e outras opções mais comuns, você vai encontrar a opção de Vibratilidade e a de Saturação.

    Enquanto a Saturação define realmente a intensidade da cor, indo de tons de cinza até cores extremamente intensas, a Vibratilidade aumenta a saturação das cores menos saturadas para que fiquem mais próximas as mais saturadas, deixando a imagem mais homogênea. Quando diminuída, por exemplo, pode previnir que a cor de pele fique muito saturada em imagens muito coloridas (como em fotos tiradas em praias).

    A qualidade das cores da imagem vai depender, principalmente, no ajuste refinado entre saturação e vibratilidade. A boa escolha desses tons vai resultar em uma imagem de qualidade ou uma imagem com cores berrantes ou desbotadas.

    Alta Vibração e menos Saturação
    Alta Vibração e menos Saturação
    Alta Saturação e menos Vibração
    Alta Saturação e menos Vibração
    Tons intensos, mas mais homogêneos
    Tons intensos, mas mais homogêneos

    O controle de Nitidez é extremamente importante, não apenas pelo que o próprio nome diz (aumentar a nitidez da imagem), como é a área onde se configura o redutor de ruído. Quanto menos luz é captada pelo sensor, mais ruído pode ser causado na imagem. Esse ruído pode atingir toda a composição geral da imagem ou apenas ser variações de cores. Você pode ajustar o redutor de ruído direto nessa ferramenta de Nitidez. Vale lembrar que quanto mais nitidez, mais redução de ruído você deverá usar.

    Fotos tiradas com menor tempo de abertura do obturador tende a possuir mais ruídos.

    Opções de Nitidez

    Porém, a nitidez nem sempre é a melhor forma de efetivamente deixar a imagem mais definida. Em uma imagem eletrônica, a nitidez se refere a intensidade do pixel em relação ao pixel mais próximo. Em relação a composição da imagem como um todo, a definição dos objetos devem ser feitas a partir do contraste dos elementos, como em um desenho feito à lápis. A ferramenta Efeitos possui as opções de Claridade e Desembaçar que adicionarão uma definição maior da imagem. Para isso, ela mexerá em pontos específicos dos níveis e contrastes e sua intensidade poderá ser reduzida ou aumentada de acordo com o resultado desejado.

    Vale salientar que o ajuste de Claridade aumenta o contraste pela mesma forma que a claridade do sol deixa a sombra mais escura e, por isso, com os elementos mais definidos.

    Desembaçar e definir

    A foto DNG não pode ser compartilhada diretamente e não estará em seu app de fotos. Para exportar a foto, você deverá clicar no ícone de compartilhamento e escolher a opção desejada. Ao salvar no rolo da câmera, o Adobe Lightroom CC irá perguntar se você quer salvar em uma resolução mais leve, para publicar em mídias sociais, ou com a maior resolução possível, o que dependerá da quantidade de megapixels de seu dispositivo.

    Exportar foto
    Opções de Exportação

    Concluindo

    Tirar fotos com o smartphone, de forma mais profissional, é ideal para quem trabalha com social media, websites, e-commerces e outros ambientes que exijam o compartilhamento rápido digital. Com configurações mais refinadas, é possível chegar a fotografias bem próximas a câmeras profissionais ou, ao menos, suficientes para a maioria dos casos.

    O que vimos aqui foram as principais ferramentas, com dicas para melhor qualidade de foto. O ideal é que você pratique, teste, experimente a maior quantidade possível de opções e ferramentas, para chegar no resultado ideal para você.

    O Adobe Lightroom CC é gratuito, mas há mais opções disponíveis para quem usa qualquer um dos planos da Adobe.

    Dica: Você pode usar uma lente macro simples para tirar foto de animais pequenos, com ajuda do foco manual e da abertura do obturador.
  • Exemplo de App Ionic – Hackathon

    Exemplo de App Ionic – Hackathon

    Disclaimer: O objetivo deste post é tão simplesmente compartilhar o projeto que possa ser útil para alguém que está precisando ou quer aprender um pouco de Ionic. É um projeto feito em poucas horas, durante um hackathon, então não espere pelas melhores práticas. Para dúvidas mais complexas, entre em nosso grupo de Design e Programação, no Facebook.


    Veja o projeto no Github:

    Star

    No último final de semana (29 e 30 de Setembro de 2018), participei do Hackathon do Shopping Center Recife. Devido a um erro da desorganização, acabei ficando em um grupo que não haviam outras pessoas que tivessem ao menos noção de programação (enquanto havia grupo composto inteiro por pessoas que sabiam programar), de forma que acabei programando sozinho durante cerca de 20 horas. Por outro lado, o restante do meu time conseguiu me auxiliar fazendo a apresentação e com uma ideia que poderá ser muito valiosa para o projeto de algumas pessoas, que irei explicar abaixo.

    Equipe, da esquerda para a direita: Eu, Marcos Lemos, Pedro Affonso, Suellen Sales e Helton Portela

    O projeto

    Diferente do que foi referido pelo edital do Shopping, que afirmava buscar uma solução de “relacionamento com o cliente”, o objetivo principal era encontrar uma forma de conseguir dados mais assertivos sem a necessidade direta de contatos com o lojista. Esses dados seriam analisados e entregues de forma a ajudar o Shopping a criar novas campanhas. Tudo sem diminuir faturamento.

    Para isso, eu pensei que poderia desenvolver uma versão do aplicativo do Shopping, que já existe, e melhorar, otimizar, deixa-lo mais fluido e com mais opções. Inicialmente, pensei em integrar o Google Indoors, mas GPS não funciona corretamente no Shopping e o Indoors não está disponível por um tempo limitado. Algumas equipes até sugeriram algo parecido, na entrega, mas apenas sugestão, pois seria inviável descobrir a localização atual em ambiente tão contido apenas por triangulação. Enfim, pensei em envolver compartilhamento em mídia social também, para engajamento, etc.

    No final, o projeto consistiu em uma nova versão do aplicativo, com um chatbot amigável, um clube de vantagens que armazena informações da nota fiscal (pelo QRCode) e a proposta de manipulação desses dados no backoffice, além de campanhas direcionadas pelo mesmo. Alguns dos outros grupos usaram propostas bem similares.

    No fim, eu decidi que o principal seria apresentar os dados em um backoffice. Minha ideia inicial era realmente preparar um BI, ou o começo do que poderia ser um, usando os dados do aplicativo reformulado. Porém, os outros integrantes de minha equipe tiveram a ideia de criar um clube de vantagens que pegasse o código do QRCode do cliente, pegando assim dados bem mais específicos sem a necessidade de acordos com o lojista, em trocas de pontos que poderiam ser trocados por serviços do shopping ou de parceiros mais próximos (como o cinema), que admito ser melhor que a minha ideia original.

    Se por um lado, eu decidi fazer algo que pudesse se tornar um BI (Business Intelligence), por outro, o tempo não foi favorável. Sendo o único desenvolvedor, eu fui obrigado a dividir meu tempo entre aplicativo, backoffice e banco. Logo, não esperem um código tão bem escrito. Lembre-se que é um projeto desenvolvido do zero em algumas poucas horas.

    Tecnologias

    Para agilizar o desenvolvimento e ainda poder ser algo demonstrável em tempo real direto no navegador (para exibir no telão), o projeto do app foi feito em Ionic 3, famoso framework Cordova para desenvolvimento de aplicações em vários dispositivos. Graças a isso, ainda conseguia testar em tempo real no Android e no iOS. Fiz o possível para implementar o máximo de funcionalidades possíveis.

    Para o backoffice, entretanto, por questão principalmente de tempo, apostei no PHP e MySQL, não pela experiência em si, apesar de conhecer bem a linguagem, mas porque eu poderia simplesmente usar meu servidor de site comum e não ter que configurar um ambiente. Dessa forma, perdi menos tempo. Mesmo assim, só consegui fazer 20% do que eu planejei para essa parte.

    Ionic

    Usei e abusei da interface padrão, com poucas modificações e atualizações, observando sempre a documentação quanto ao uso dos componentes. Aqui cabe um outro disclaimer: apesar de já trabalhar há cerca de um ano com Phonegap/Cordova e já ter feito algumas brincadeiras nele, estou mexendo no Ionic há apenas duas semanas, então perdoe-me se eu estou usando alguma má prática em seu código (ao menos os nomes das páginas eu já adianto que estão bagunçadas).

    Sabrina – A Chatbot

    Sabrina foi o nome escolhido para a chatbot. Por quê? Sei lá, veio na cabeça. Basicamente ela usa Watson para poder realizar a conversa. Com algumas poucas diferenças, caso você queira saber mais como funciona essa parte de chatbot, consulte o outro artigo onde eu explico como criar um chatbot simples usando a ferramenta da IBM. Ainda resolvemos dar uma identidade para e os outros membros da equipe a treinaram para responder perguntas de forma a convidar as pessoas que não estão no shopping e ainda sugerir lojas em caso de perguntas menos específicas.

    Obs. Abaixo, vai ter uma área de testes. Se você for testar em nosso site, lembre-se que usamos o plano de 30 dias grátis, então dependendo da data que você ler este artigo pode não funcionar. Também só tivemos tempo para responder uma série limitada de perguntas. E não treinamos a conversação mais complexa (apesar de que você vai encontrar no código trechos que mostra que estava sendo desenvolvido).

    Sabrina Chatbot Watson

    Clube de Vantagens

    A parte do clube de vantagens visava o login fácil pelo Facebook (está implementado em beta no código, mas comentado, pois só funciona compilado). Através disso, pegaria o máximo de informações públicas possíveis, para entender os gostos do cliente. Claro que estou ciente que as novas políticas do Facebook exigem uma aprovação, mas isso não seria problemas para um dos maiores shoppings do Brasil.

    Após esse login, entraria a opção de ver suas informações, compartilhar com amigos, através de um código promocional (que dá pontos), e que ainda daria alguns feedbacks gráficos para estimular uma ludificação. Os valores dados seriam sempre grandes, na margem mínima de 100 pontos para compras menores e 500 pontos para compras maiores. Essa quantidade foi pensado do ponto de vista de marketing, pois pontos maiores dão a sensação de que o retorno é maior, mesmo que a exigência para a conversão em um serviço ou produto fique na casa das dezenas dos milhares.

    QR Code e NFCe

    Por outro lado, havia a necessidade de ler o QRCode e acessar os dados de uma NFCe sem um certificado digital. O maior problema que enfrentamos é: como fazer isso através do servidor, se as Sefaz bloqueiam o cross-origin (ao menos a Sefaz de Pernambuco), retornando o erro “Cross-Origin Read Blocking (CORB) blocked cross-origin response“? Percebi que os outros grupos que envernizaram por esse lado tiveram esse problema e, até onde eu vi os códigos, ninguém realmente resolveu o problema. Então, me atentei que eu simplesmente poderia “enganar” o site da Sefaz para acreditar que eu na verdade sou um usuário direto do navegador. Como? Simplesmente declarando um cabeçalho como Firefox! O trecho fica assim (PHP):

    Obs. Eu não testei com NFCe de outros estados.

    O resultado foi exatamente a XML da NFCe. E como entender e ler? Bem, para isso basta usar o DOM Document, mas se você quiser entender mais sobre como funciona esse processo de nota fiscal eletrônica, leia o artigo que eu escrevi anteriormente sobre o assunto.

    Já o QRCode, o próprio Ionic tem uma solução para isso, e foi implementada, mas me deparei com um problema: Só funcionava corretamente no Android e iOS e eu precisava apresentar tudo no navegador. A solução? Encontrei uma biblioteca de Javascript puro que fazia a leitura do QRCode pela webcam. Então tive que aprender como integrar Javascript puro a um projeto Ionic. Nem foi tão difícil, está compreensível se você olhar a página do QRCode no projeto. O único problema é que a webcam não tem autofoco, então há uma margem curta para que seja lido corretamente o QRCode. Por conta disso, no navegador, pela webcam, eu só consegui ler os QRCodes que estavam sem amassados e bem nítidos. Aliás, testamos uma nota emitida em contingência e, por algum motivo, a URL do QRCode retornava chave inexistente (?).

    Após ser lido, o QRCode retorna uma mensagem com o a pontuação que você efetivamente fez, e retorna também o valor da nota. Ainda envia os detalhes da nota para o backoffice.

    Backoffice

    O backoffice captura os dados e exibe para o usuário. No projeto, os gráficos que estão mostrados no dashboard não são reais, foram colocados manualmente, mas os que mostra as vendas é atualizado em tempo real assim que a pessoa coloca o QRCode. Os nomes dos compradores estão censurados no front, eu sei que deveria ser no back (aliás, já armazenado sem o nome), mas não tive tempo de pensar em segurança e já era 3 da manhã no momento que eu comecei a implementar isso.

    Por conta disso, eu não tive como implementar tudo o que eu queria, de forma que tem mais exemplos do que efetivado.

    O meu intuito era usar todos os dados capturados, inclusive o retorno da Sabrina (a chatbot) para criar índices de relevância de 0 a 100. Exemplo:

    1. João, identificado como usuário J72, perguntou sobre compras de sapato a Sabrina, isso dá 1 ponto na subcategoria calçados para J72, pela intenção de compra.
    2. Se J72 efetivamente comprar o sapato, ele receberá 2 pontos na subcategoria calçados, pela compra realizada.
    3. O cruzamento entre a intenção e compra realizada dá ainda mais 3 pontos, na subcategoria calçados.
    4. Ao todo o processo do usuário J72 resultaria em 5 pontos de relevância para o usuário J72, que seria somado aos seus outros pontos, caso já tivesse.
    5. Quando atingir 70 pontos, na subcategoria calçados, esta será considerada como categoria de relevância para o usuário J72.

    Com isso, a home, mostrada para o usuário J72 seria organizado de acordo com seus índices personalizados e campanhas direcionadas, direto pelo aplicativo e também por notificações, poderiam ser enviadas para os usuários do aplicativo, de acordo com suas relevâncias. Além de, claro, o resultado do acompanhamento dessa campanha.

    Exemplo de como funcionaria a criação de campanha direcionada

    Além disso, esses dados deveriam ser cruzados para sugerir a equipe de marketing, as melhores estratégias de acordo com o comportamento do grupo e em quais mídias seriam mais adequadas para investir em propaganda. Infelizmente, essa foi a parte que não deu tempo de desenvolver, pelos motivos supracitados. Mas, essa imagem, desenvolvida por outros membros da equipe, ajuda a ilustrar a lógica que seria aplicada para a criação do algoritmo. Vale lembrar que, as informações do Facebook, vinculados ao comportamento de compra, ajudaria e as conversas com a Sabrina e as bases de dados que o Shopping já possui, ajudariam a definir o comportamento do público.

    Finalizando

    Disponibilizei todo código desenvolvido, do backoffice e do projeto Ionic no Github, para caso você deseje experimentar ou apenas dar um olhada no código. Mas lembre-se que não vou fazer manutenção de nada, é apenas um exemplo para estudo:

    Star

    Entretanto, se você quiser apenas ver, testar o que foi demonstrado, você pode acessar o backoffice aqui, ou o aplicativo aqui. Caso abra o aplicativo em um desktop ou laptop, recomendo que você use o modo de device toolbar do Google Chome para visualizar corretamente -> Para isso, pressione CTRL+SHIFT+i (substitua ctrl, por command, no Mac) e clique no segundo ícone do canto superior esquerdo do console. Ou simplesmente veja o vídeo abaixo:

    Por que não vencemos? Talvez por não ter tanto tempo para explicar o projeto, talvez por não ter encontrado uma boa forma de demonstrar, ou simplesmente porque não é realmente tão interessante. Mas, de qualquer forma, rendeu um post para o blog, para o qual pode ser útil para alguém que esteja aprendendo Ionic ou qualquer outro tema aqui relacionado. Lembre-se de entrar no grupo do Facebook para tirar mais dúvidas.

    Obrigado para você que leu até aqui e obrigado a equipe que foi integrante desse projeto. Me siga no Twitter e Instagram e deixe seu like no Facebook.

  • Versão Developer Preview do Android P

    Versão Developer Preview do Android P

    Durante o último final de semana, a Google liberou a primeira versão do Android P (ainda sem nome oficial). O objetivo é facilitar, como sempre, para que desenvolvedores possam adaptar suas aplicações e mante-las funcionais. A surpresa, entretanto, está no fato de que o sistema operacional agora conta com suporte a notch (aquele dentinho do iPhone X), o que criou uma polêmica muito grande entre os hobbystas e desenvolvedores.

    O lançamento foi focado para quem usa o Google Pixel e Google Pixel 2.

    Atualização de Interface Gráfica

    Além da polêmica do notch, o novo Android traz o que está sendo chamado pelos desenvolvedores de Material Design 2.0. No ano passado, o site do MaterialDesign foi todo remodelado, abandonando parte do conceito de “uso de folhas sobrepostas” sugerido originalmente. Em especial, podemos reparar na diminuição relevante dos tons de sombra.

    Também podemos verificar que os cantos arredondados foram intensificados e não existe praticamente mais nenhum objeto com borda reta. Além disso, os ícones agora estão sempre fechados em um ambiente circular, o que melhora consideravelmente a organização de grade e espaçamentos, tal como definir melhor a área de toque do objeto. Também é possível notar o uso maior de contrastes de cores.

    Mais opções do long press (aquele evento que emula o 3d Touch da Apple), também foram adicionadas. Agora é possível pressionar por mais tempo em cima de uma notificação para ver mais opções sobre ela.

    As animações também sofreram uma atualização relevante, anulando aquelas transições de sombra que partiam da área de toque, criado pela referência original do Material Design. As transições também estão nitidamente mais rápidas e mais focadas no ease-out.

    O novo laucher trouxe uma novidade que pode incomodar muitas pessoas. A busca do Google agora encontra-se completo, na parte inferior do dock fixo de aplicativos, incorporando ainda mais o widget ao sistema operacional.

    Os controles e notificações de mídia e armazenamento, no geral, apresentam-se agora em formatos de cards e não apenas como uma instrução em tela.

    As informações de bateria também estão mais sutis. O modo econômico não mais é simbolizado pelo ícone alaranjado, mas sim por um símbolo de +.

    Funcionalidades Adicionadas

    Tal como o iOS11, o Android P agora traz a opção de edição imediata de screenshots. Até então a funcionalidade é limitada, mas deve ganhar mais opções até o lançamento oficial do sistema. A opção de tirar um screenshot ainda foi incluído nativamente nas opções de desligar / reiniciar.

    Outra opção já conhecida por usuários do iOS chega no Android P, o zoom ao navegar texto. Agora ao colocar o cursor de texto em um ponto específico, o usuário terá uma ampliação da região.

    Dentre outras atualizações, temos a lista resumida das seguintes funcionalidades (inclusive as já citadas):

    • Interface Gráfica
      • Nova Interface Gráfica de Configurações
      • Novos estilos de para notificações de mensagens
      • Novas transições e animações
      • Atualização do Pixel launcher e modificações no dock
      • Mudança no ícone de alerta da bateria
      • Always on display agora mostra informações da bateria e o centro de notificações
      • Novo Easter Egg
    • Funcionalidades
      • Editor nativo de screenshots
      • Screenshot pelo botão de força
      • Cursor de texto com Zoom (como no iOS)
      • Agendamento de economia de energia
      • Modo Não Pertube simplificado
      • Os botões de volume agora controlam o voluma da mídia por padrão
      • Brilho adaptativo mais inteligente
      • Travamento de rotação no modo paisagem
      • Suporte a Multi-Bluetooth
      • Controle de intensidade da vibração
      • Acesso para desabilitar as animações

    Com informações do Gizmodo, Blog do Google e Fórum XDA Developers

  • Android Lança Novo Android Oreo GO

    Android Lança Novo Android Oreo GO

    Comemorando os 10 anos do lançamento do primeiro smartphone Android, a Google traz ao mercado o Android Oreo GO Edition. O objetivo dessa versão é trazer acessibilidade para smartphones low-end. A versão GO é feito para rodar em smartphones entre 512MB e 1GB de RAM, menos processamento e menor capacidade de expansão.

    O dispositivo seguirá a tendência dos apps da linha GO, lançados pela Google com o objetivo de serem mais leves e consumir menos banda. Os aplicativos incluem o Google Go, Google Assistant Go, YouTube Go, Google Maps Go, Gmail Go, Gboard, Google Play, Chrome, e o novo Files Go app by Google.

    O primeiro smartphone a ser anunciado com Android Go foi o Alcatel 1X, com uma tela de 5,3 polegadas (480p), processador quad-core da MediaTek, 1GB de RAM, 16GB ded armazenamento e carregador microUSB. Não possui sensor de digital, mas há um motor de reconhecimento facial. O preço será na casa dos 100 euros e deverá ser lançado em Abril.

    Com notícias do Blog do Google e 9to5Google

  • Google I/O 2018 – Divulgada a Data do Evento

    Google I/O 2018 – Divulgada a Data do Evento

    A Google confirmou indiretamente, a partir de um material de divulgação com ludificação, que sua próxima conferência de desenvolvedores, o Google I/O, vai acontecer entre os dias 8 e 10 de Maio.

    Para o anúncio, a Google fez um jogo de exploração, baseado na mesma tecnologia do StreetView, que traz também uma data curiosa: 5 de Agosto. Esse dia é o dia nacional da irmã, uma referência a cidade próxima a Mountain View, mas também foi a data que ocorreu o I/O Extended em 2017. Vale lembrar que Agosto também é um mês comum para os lançamento oficial de versões do Android.

    Todos os anos a conferência traz novidades acerca de novas plataformas de desenvolvimento, integração, novos produtos e serviços, além de novidades acerca de seus principais sistemas operacionais Chrome OS e Android.

    Curiosidade

    Como todos os anos, os curiosos não estão interessados nas novas funcionalidades e novas tecnologias, mas sim na questão mais importante que movimenta todo o mercado do Android: o nome da nova versão.

    Devido a ser possível encontrar um bolo com diversas rodelas de abacaxis, sugere-se que o nome do próximo Android possa ser Pineapple Cake ou algo parecido. Analistas acreditam que esse nome pode ser uma mudança no paradigma do sistema operacional da Google.

    Todavia, também podemos ver na sala da cozinha diversas cestas com inhame e batata-doce 🤷‍♂️.

     

    Como notícias do The Verge, Google e 9 to 5 Google.

  • Google Fuschia: Mais Detalhes Sobre o Novo Sistema Operacional do Google

    Google Fuschia: Mais Detalhes Sobre o Novo Sistema Operacional do Google

    Quando o Google comprou o Android em 2007, seu objetivo era entrar no emergente mercado de mobilidade. Durante os últimos 10 anos, a Google enfrentou diversos problemas de performance e até judiciais (em especial com a Oracle) com relação a esse sistema operacional.

    Em 2016 a Google anunciou o misterioso Fuschia. Um sistema operacional gratuito, de código aberto e licença mista, que está em desenvolvimento pela empresa.

    Apesar de já ter sido divulgado algumas imagens, é a primeira vez que temos o vislumbre do visual do Fuschia OS em execução e interface, através do site ARS Techinica.

    Veja o vídeo de demonstração do futuro Google Fuschia OS

    Design

    O Fuschia foi anunciado originalmente para ser um sistema operacional leve que funcionasse em diversas situações e fosse adaptável para vários meios.

    Em primeiras imagens, já podíamos ver leiautes que se assemelhavam muito ao Material Design, porém sem a adição de sombras que estamos acostumados na aplicação Android. Essa homescreen era chamada de Armadillo.

    Primeira aparição do Google Fuschia

    Já em sua nova aparição, o Fuschia apresenta uma solução responsiva, que parece significar um interesse em criar uma aplicação híbrida entre smartphone e tablet multitarefa.

    Nitidamente, o ponto mais diferente do design seja a localização dos indicadores de bateria e wifi, além da barra do Google, que se encontram pouco abaixo do centro vertical do dispositivo. De certa forma, essa decisão parece muito interessante visto que as telas dos dispositivos estão cada vez maiores e mais difíceis de alcançar o topo com apenas uma mão.

    A interface gráfica é escrita em uma plataforma SDK chamada Flutter, uma tecnologia multi-plataforma que hoje já se encontra funcional tanto para iOS quanto para Android. A tecnologia usa Dart e algumas integrações HTML/CSS para criação das interfaces.

    Programação

    O Fuschia, diferente do Android e do ChromeOS é baseado em um microkernel chamado Zircon (anteriormente chamado de Magenta) que usa um subconjunto em C, C++ e possui, junto com o Fuschia, diversas linguagens compondo todo o sistema operacional, como o  Dart, Go, Rust, Python e até Swift. Da mesma forma, já foi anunciado que o Fuschia OS trará suporte para desenvolvimento ao menos em C/C++, Go e Swift.

    Desde o ano passado já é possível experimentar o Fuschia em Chromebooks, mas é a primeira vez que é possível fazer isso com interface gráfica.

    Vale lembrar que recentemente a JetBrains recentemente liberou um beta da IDE CLion que permite que Kotlin seja compilado sem a necessidade da JVM. A chamadad Kotlin/Native pode ser uma alternativa de fácil portabilidade de aplicativos Android para a nova plataforma.

    Rumores afirmam que Fuschia seria uma consequência das confusões em tribunais entre a Oracle e o Google. Porém é importante salientar que se trata de algo ainda pré-alpha e não há informações de quando haverá um lançamento ou sequer se o produto vai chegar a ser lançado.

    Será esse prenúncio do fim do Android?

     

    Com notícias e imagens do ARS TECHNICA e informações do Google. 

     

  • Projeto eelo: Um Novo Sistema Operacional Mobile Focado em Privacidade

    Projeto eelo: Um Novo Sistema Operacional Mobile Focado em Privacidade

    Gaël Duval, conhecido por ser o criador do Mandrake Linux, está encabeçando o projeto de um novo sistema operacional para smartphones.

    O Projeto eelo (se escreve em minúsculo) é um fork do LineageOS, variante famosa do Android com módulos de código aberto. A ideia é que o novo sistema operacional seja focado na privacidade e funcione como uma instituição sem fins lucrativos e comunitário, feito com o apoio de diversos desenvolvedores. A ideia é que as novas ROMs sejam disponibilizados em 2018 para diversos aparelhos e novos produtos sejam criados focados nesse sistema operacional já em 2019.

    O eelo está sendo apoiado no Kickstarter e já passou dos 200% da meta em apenas 15 dias. Segundo Durval, a Apple tornou-se muito cara, muito chata e está “enlouquecendo com seus produtos”, enquanto o Google se tornou “gigantesca” e está capturando muitos dados dos seus usuários.

    Um vídeo do projeto (legendado em português) foi disponibilizado no Youtube.

    Gaël Duval acredita que o foco na privacidade e o compartilhamento em mídias sociais do projeto tornará o novo sistema operacional relevante para os consumidores e empresas.  Segundo o analista da Gartner, Tuong Nguyen: “O Google gasta muito tempo e esforços para seus produtos serem fáceis de usar, para te manter dentro de seu ecossistema”.

     

    Com notícias do Linux Insider e Kickstarter.

  • Beta do JetBrains faz Apps Kotlin Funcionar sem JVM

    Beta do JetBrains faz Apps Kotlin Funcionar sem JVM

    JetBrains disponibilizou a tecnologia Kotlin/Native, que cria binários nativos de um código Kotlin, de forma não ser necessária uma máquina virtual Java para rodar.

    A versão beta da IDE CLion permite que programas Kotlin sejam compilados diretamente em um formato a ser executado de forma nativa pelo sistema operacional.

    Kotlin/Natives usa um compilador LLVM (Low Level Virtual Machine) para gerar o código. Um LLVM back-end, rodado em tempo de execução e parte do gerador de códigos nativos são fornecidos como parte do beta do CLion.

    Com notícias do JavaWorld e InfoWorld