SORAIA – Sistema de Operações baseada e Realidade Aumentada e Interface Alternativa

preâmbulo:
O paradigma da Realidade Aumentada

A tecnologia da Realidade Aumentada consiste em mostrar um marcador para o computador, como por uma WebCam e o computador receber esses dados e projetar algo novo na tela ou no óculos virtual.

Há exemplos como esse:

Temos assim uma nova forma de entrada de dados e de saída. A enrtada de dados ocorreu por meios como pedaços de papel para o computador interpretar. O fato desse movimento da entrada de dados não ter ocorrido diretamente a partir de bits foi um detalhe crucial nas relfexões para desenvolver a nova interface. Com o avanço da tecnologia é previsível que a RA (Realidade Aumentada) aceite marcadores menos óbvios. Imaginamos que no futuro uma folha de texto será entendida pelo computador sem precisar de marcador ou com um marcador muito discreto e pequeno num canto, como um carimbo.

Achamos que o poder da webcam se aproximará do de um scanner. Como scanners são poderosos por passarem uma luz no papel, enquanto que webcams capturam a imagem de imediato, pode ser que soluções mistas* surjam, por exemplo de pontar com dedo um pedaço do papel onde uma luz similar ao scanner vai passar. Ou seja, a webcam acompanha o dedo, e no local apontado um reconhecedor de imagens/caracteres mais poderoso captura os detalhes que a webcam não é capaz de capturar. Scanners reconhecem imagens e caracteres, mas apenas de forma passiva, colocando a foto ou texto para serem editadas, mas é bem diferente da RA, quando a imagem capturada desencadeia uma série de respostas de forma que haja interação em tempo real com o usuário.

Quanto à saída, à projeção de dados, pensar apenas na tela do monitor significa ignorar tecnologias de projeção em superfícies

ou de óculos virtuais

São dois casos em que os dados aparecem fora do monitor. Não entendam essas possibilidades apenas como saída de dados, é de se ressaltar como elas são interativas (mesmo quando é apenas um laser sobre uma superfície

ou seja, simultaneamente enviam o dado e recebem de volta a imagem da interação do dado projetado com o usuário que motiva a enviar mudanças do dado projetado como resposta.

Exemplo prático simples:
Pegue um papel e coloque na frente do computador. Ele irá reconhecer imediatamente o texto. Você vai passar o dedo sobre as palavras que precisará corrigir e riscos à laser vão ser projetados sobre as palavras, como se você estivesse riscando-as. Ou, imagine que no papel tem um desenho de um copo. Colocando o dedo sobre o desenho de um botão, uma animação é projetada sobre o papel como se o copo estivesse sendo preenchido com água.

Para além do RA: interface alternativa:
Alguns de vocês podem ter comentado que já viram isso mas sem ser em RA, mas sim na interação através de touchscreen de tablets e e-papers que logo imundarão o mercado. Por essa razão é que percebemos que não estávamos diante apenas de modelos de RA, a força da nossa proposta estava na forma de interagir e no sistema de operações para viabilizá-la. Ao verem o exemplo complexo vocês entenderão a necessidade disso:

Exemplo prático complexo:
Temos um papel com texto. A pessoa pega um outro papel com linhas e colunas. Ela coloca a mão sobre o texto e arrasta os dados para o papel com tabela. Apenas os dados relevantes foram movidos, e no outro papel agora temos tabelas com os dados organizados. Se a pessoa aprovou, os dados não precisam ficar apenas na projeção, um braço de impressora pode se estender* e imprimir os dados para ficarem permanentes e serem passados para outra pessoa
Ou temos um papel com desenho de um tubo de ensaio. O cientista faz o desenho de um fogo embaixo do tubo e o uma animação indica que o liquido dentro do tudo começa a borbulhar. O cientista faz outro desenho, uma flecha para cima e escreve 100°C. Agora no papel temos a simulação de um líquido a 100°C. Ele arrasta aquele conjunto de desenho/projeção sobre papel para outro desenho representando outra substância. Foi uma simulação de reações químicas. Dados são projetados (seja sobre o papel ou seja na tela do e-paper) e ele arrasta esses dados para preencher um arquivo de texto ou de tabela do exeplo anterior.

Sistema de Operações
No exemplo complexo, foi superada a idéia de arrastar elementos decorativos/animados que é ainda o foco de muitas aplicações de RA e mesmo o chamariz para o touchscreen. Não se trara apenas de arrastar caracteres e imagens, se trata de arrastar dados complexos para que o receptor às decodifique e use à sua maneira.

Mais que clipboard:
Pensemos no cotidiano: quando uma pessoa quer copiar dados da internet para o processador de texto, às vezes ela quer copiar a formatação do site e às vezes não quer. No Firefox por exemplo um complemento chamado CopyPlainText oferece esta última opção. De forma que no cotidiano às vezes deparamos com níveis de complexidade nos dados que vão para o clipboard. Mas no nosso modelo, o nível de complexidade dos dados é muito maior, se trata de arrastar a palavra (ou desenho) “água” e o programa receptor não entendê-la apenas como 5 letras mas como elemento água para química. E mais: o clipboard copia apenas o que está visível, o que o programa que enviou dados entende. No nosso modelo queremos que arrastar uma pedra (palavra ou desenho) e o programa receptor seja um decodificador de seus elementos químicos. Pensemos mais: cada folha de papel acaba se tornando um instrumento de laboratório de forma que com RA ou e-paper um punhado de páginas possa ser um laboratório portátil levado pelo cientista. Queremos que ao arrastar de um canto ao outro o objeto de pesquisa, eles carreguem consigo um histórico que interesse ao programa receptor. De forma que ao arrastar um líquido, ele está arrastando junto a temperatura a que foi submetida, misturas, e talvez até mesmo variações na força gravitacional (coisas que o mundo virtual pode simular).

Escalonamento de complexidade no clipboard e retroescalonamento:
Os dados quando copiados/recortados têm um nível baixo de complexidade, por exemplo, inicialmente é entendido apenas como caracteres ASCII. Mas no programa seguinte, é entendido como uma palavra associada a outras palavras, quando for para organizar em tabelas. No outro, a palavra é entendida pelo seu significado, como se houvesse um dicionário embutido. E no simulador de reações químicas, recebe manipulações, de forma que o dado a ser colado carrega em si a informação de que se trata de caracteres ASCII, relevância da palavra, significado e histórico manipulações. Quando submetida a um outro programa que simule pressão e passagem de tempo, há tranformação do elemento químico en outra coisa.

OK, obtendo novo elemento, hora de colocar os resultados em forma de tabelas e texto. Aí acontece um retroescalonamento na complecidade de dados. No simulador de reações químicas, obviamente é tratado como outro elemento. Na tabela, a tebela entende que ela mudou de relevância e muda seu lugar. No dicionário um outro verbete é chamado e por fim no texto, é colocado de forma que as outras palavras-chave entrem em concordância. Por exemplo, se X era maior que Y e agora não é mais, o texto cuida de arrumar isso. E esse movimento não precisa ser apenas de uma palavra: um conjunto de dados pode ir para a tabela e da tabela ao texto, arrumar várias partes do texto (tal como hoje, a arrumação pode não ser completa mas por sublinhamento de itens como nos coretores ortográficos).

Nesse movimento, tanto no início quanto no fim o processador de texto não teve de lidar com a complexidade de entender elementos químicos, já que isso explodiria a capacidade do programa. Por outro lado, o simulador de pressão e tempo já lida com dados mais que suficientes e não quer lidar com regras de formatação de texto. De forma que entre os dois houve camadas de programas que foram interpretando dados e assim lidaram com o escalonamento e retroescalonamento da compleidade deles.

Organização de arquivos e programas:
Pela nossa proposta, os aquivos vão acumulando camadas de dados. Por exemplo, um desenho de copo d’água vai recebendo uma camada de dados sobre composição da água e do vidro, outra camada dados enciclopédicos, outra camada as possiblidades de manipulação química, e assim por diante. Pelo fato deles estarem sobre o desenho, de forma “flutuante” eles parecem ser dados de clipboard. Digo “flutuante” pois não é que o dado e o desenho são uma coisa só, já que o desenho no básico é entendido apenas como bitmap, e o programa correspondente entende apenas como tal, Sendo assim, é como se um recorte ficasse em cima do papel mas nunca fossem colado. As camadas são como pedaços de papel ou coisas escritas em celofame e arranjadas sobre o papel-base, mas não coladas com cola.

Essa forma de organização se lembra muito os arquivos que mexem com camadas, como os do GIMP (Gnu Image Manipulation Program). Mas no Gimp é um arquivo só com camadas que só ele entende. No nosso modelo, qualquer programa pode ver o arquivo-base, mas o entendimento das camadas acompanhantes depende de programa para programa. Assim as camadas não são clipboard, por elas carregarem dados complexos é como se cada uma delas fosse um arquivo. Mas como arquivos empilhados, como se fossem folhas com desenhos, textos, tabelas e vários dados empilhados como folhas que formam uma revista.

Essa forma de organização se inspirou na observação de folhas de papel mesmo, mas acrescentando níveis de interação muito maiores. Elas serão folhas de e-paper ou folhas de papel mesmo com marcadores de RA em cantos e projeção de dados sobre superfície.

Já os programas acompanham as páginas. É como se um texto, imagem acionasse a abertura dos programas, ou uma virada da página virtual de um e-paper tivesse o mesmo efeito de acionar. Pela proximidade muito grande com dados sendo exibidos/arrastados, imediatamente elas estão manipulando o arquivo, sendo por isso diferentes de programas que abrem e depois precisa ser aberto o arquivo dentro delas. Mas se é um dado está sendo manipulado de um jeito que aciona outra função, afinal é um outro programa que abre ou é um plug-in que é acionado? Boa pergunta. Acreditamos que a barreira entre plug-in e programa se tornará trêmula, afinal o arquivo estará lá, sua manipulação, que pode ser o simples arrastar (ou desenhar fogo embaixo dela, ou escrever o que fazer em cima dela, o que for) já aciona outra função, de forma que se é o mesmo programa que aciona um plug-in para nova função ou deixa a tarefa para outro programa, a diferença é pouca. Tradicionalmente para um outro programa mexer um arquivo precisaria ser exportado para outro formato. Entre programas de desenho e ilustração há vários programas de vários fabricantes. E a incompatibilidade de formato impede um simples visulalizador de imagens ver a imagem mesmo que ela só queira imprimir e não mexer em camadas, vetores, etc. Exportação de arquivos ficará obsoleta, e será tão fácil criar uma cópia arrastando que aas pessoas esquecerão o que é o “Salvar Como”.


Por que é diferente da computação atual?

Porque atualmente a idéia de camadas só existe para arquivos especiais e só programas especiais abrem. Porque não é propriamente um arquivo com camadas, tá mais para camadas de arquivos. Porque para guardar tipos de dados diferentes, hoje se coloca vários arquivos de extenções diferentes numa mesma pasta, e se nomeia a pasta de forma a organizar o tema comum àqueles arquivos dentro da pasta. Mas não estamos falando de pastas/diretórios, estamos falando de camadas de arquivos, mas não empilhadas de qualquer forma, cada camada é como um pedaço de papel ou folha de celofane de forma que a base nunca é ocultada. É um desenho de copo com várias camadas de informações agregadas e não uma pasta chamada “copo” com arquivos tipo imagens, textos e tabelas, etc dentro dela.

E se os tais livros eletrônicos já estão esboçando a centralização de importância no conteúdo, de forma que o conteúdo contém uma série de links e anotações que o expandem, eles ainda não organizaram a transferência de dados com escalonamento e retroescalonamento. De forma que para passar os dados, precisa ser do jeito manual recortar/copair/colar, ou exportar/importar arquivo e os programas são janelas que esperam o arquivo chegar. No nosso modelo, as funções chamam os programas tão rápido e sem atrapalhar a visualização de outras camadas-arquivo que a idéia de uma janela ficar na frente e tapar a outra pode ficar ultrapassada. A parte visual desse modelo ainda deixamos em aberto, sendo assim janelas de programas podem ou não existir, mas se existirem, faz mais sentido que elas sejam semi-transparentes ou sejam apenas botões flutuantes, barras laterais de forma a não tamparem outras camadas de dados. (Do contrário, ao abrir um programa que vê a temperatura, só aparece a temperatura, e não o objeto, um programa de esquentar a água tampa a quantidade de água que outro programa adicionou, etc.)

Além do mais, por eles partirem de telas touchscreen que valem por várias páginas, enquanto que nós pensamos em papéis sobre a mesa e conteúdos/dados/tarefas sendo arrastados por eles, a principal forma de transmissão que eles pensaram é o velho modelo de minimizar o arquivo, mandando o arquivo-ícone para outra tela por wireless ou USB.

Atualmente minimizar, reduzir o conteúdo à ícones e guardar em pastas, abrir em programas, copiar, colar, exportar, importar tem sido a forma das pessoas trabalharem com manipulações de dados até mais complexas que os exemplos dados aqui. Nós podemos dar mais dinamicidade à essas tarefas.

System-centered. User-Centered… Labor-Centered?
Até vai parecer que quero lugar na academia inventando um novo conceito, não é isso, mas quando faltam explicações, o jeito é inventar um conceito novo. Existe o conceito de System-Centered que é o desenho do sistema centrado no sistema. Como contraponto surgiu o User-Centered que diz ser focado no usuário. Quando Steve Jobs lançou o MacOsX disse orgulhoso dizendo que agora o Finder é user-centered. Como disse, não almejo provar a importância/relevância de um conceito novo, portanto narrarei a situação em que os termos system-centered e user-centered não me satisfizeram.

Seja no antigo Finder, seja em outros gerenciadores de arquivos system-centered, os arquivos que faziam os sistema funcionar eram os vistos como importantes e esse modelo listava primeiro os drivers, diretórios e arquivos do sistema. As pastas do usuário e seus arquivos pessoais eram subdiretórios. Do ponto de vista do sistema, não faz sentido colocar o desktop como topo acima do “Computador”, mas é isso mesmo que ocorreu no modelo user-centered. O desktop, os favoritos, o histórico e arquivos gerados pelo usuário ganharam importância. Alguns arquivos do sistema até passavam a ser invisíveis. O pendrive, quando espetado, mesmo sendo um subdiretório montado dentro do sistema, aparece no desktop como abaixo apenas do desktop.

Contudo, se o user-centered parece ser a última palavra, o defeito parece ser justamente em ser focado demais para um usuário. Favoritos e Histórico são coisas que só fazem sentido para o próprio usuário. Refletindo sobre RA, nos pareceu que o principal objetivo da tecnologia é mostrar para o outro e não para si mesmo. Quando pensamos nos exemplos que demos acima, pensamos em cientistas fazendo coisas e anotando para outros cientistas verem. Inclusive chegamos a pensar que uma evolução do RA podem ser dados sobre papel que invocam outros dados nos computadores de forma que esse conjunto de invocações possa substituir em parte a transmissão de dados via bits eletrônicos (assim você fica menos frustrado do que quando perde um pendrive!).

Transmissão para outro ver e interface focada no arquivo-camada-tarefa em execução. Para o ususário entender (e complementar), para outro usuário entender e até mesmo o computador entender por como transmissão de bists não-eletrônicos. Por tudo isso o centro parece ser o labor. E o conjunto forma um laboratório. De forma que pensamos na palavra labor-centered.

Programação com caneta?
Mostramos como funcionariam os programas. Como as pessoas podem colocar sinais gráficos (RA) ou fazerem gestos que o computador entende (arrastar, apertar, e talvez sejam desenvolvidos outros, como de juntar, partir/separar, etc. Coisas que estão se esboçando com o multitouch).

Mas com isso as pessoas estão agindo conforme o script, usando as funcionalidades que os programadores dos programas previram que seriam usadas.

Como ousadia a mais, tentamos imaginar se o usuário não seria capaz de escrever mini-programas de forma rápida com o aprendizado de regras simples que não chegassem a ser linguagens de programação. E num cenário que talvez seja até irreal (e não sabemos a viabilidade), os mini-programas seriam escritos no papel e sem precisarem de computadores ligados. Aí através do scanner os dados seriam imputados, compilados e tornados executáveis.

Voltemos ao exemplo do texto. Pensamos que o usuário poderia marcar as palavras que um novo programa reconhecerá como importantes e arrumará em conjuntos. Aí após marcá-los alguma coisa invocará que está sendo iniciada uma programação (o que de repente se reduz a um sinal que a pessoa desenha no canto da página). Desenhando balões, vai sendo formado conjunto de palavras, elas podem ser para indicar sinônimo (troca de palavra por outra), ou chamar outro arquivo (um desenho) ou ação. Flechas indicariam qual seria o próximo passo, por exemplo de arrumar esses conjuntos em tabelas, e talvez inserir um cálculo a ser feito associando váriáveis numéricas a elas. Manipulações em RA são fantásticas. É possível fazer por exemplo com que um sinal de mais desenhado pressionado (ou, do ponto de vista da webcam, escondido com dedo) sirva para aumentar o volume. Podem surgir variações como aumentar o volume depois de selecionado o desenho de volume e aumentar a temperatura quando selecionado o desenho do termômetro.

Isso foi pensado imaginando um grupo de cientistas que fosse fazer uma expedição e encontrasse um novo elemento e fosse fazendo experiênciaas e anotando dados, mas quisesse eles mesmos criar um simulador de testes a ser copiado para outros de forma que outros possam ter idéias das suas propriedades sem terem a amostra do elemento. De posse de dados, um dos cientistas que recebeu a cópia poderia combinar com outras camadas de arquivos-programa (que outros não tinham talvez pela distância geográfica, ou por ser um programa que ele escreveu sozinho) e assim obter novas descobertas, virtualmente, para só depois precisar confirmar com materiais de laboratório reais.

Agradeço a todos que leram até o final
Essas são as idéias básicas e daqui para frente será preparar exemplos melhores e formas de apresentação.

operação SORAIA

31 de Março de 2010

É agora ou nunca!
Chegou a hora de mostrar para o mundo a minha contribuição para desenvolvimento de interfaces.

Para isso, vou me armar de meios para provar que a idéia partiu de mim. OK, vamos deixar de lado a discussão de licenças, o que quero agora é apenas que outros não digam que foram os autores.

Alguém pode dizer que qualquer licença, até o domínio público garante a autoria. Tá, mas a questão é provar. Não é porque a Microsoft usou partes de aplicativo GPL que automaticamente todos ficam sabendo, a questão é como as pessoas ficarão sabendo que uma ideia foi roubada? Por isso o primeiro passo é mostrar ao público.

Esse conjunto de estratégias para mostrar e ao mesmo tempo associaciar a autoria a mim é o que chamarei de OPERAÇÃO SORAIA.

Operação SORAIA não chega a ser uma Operação Valquíria (aquele do filme), mas de fato entra num terreno perigoso, pois os escritórios de patentes ganham muito vendendo expectativas para os inventores e cobrando a partir de R$ 1500 para registrar e às vezes oferecendo algum atrativo a mais como poder mostrar em algum lugar/veículo. Uma dessas organizações me propôs gastar de R$ 5000 à 30 000 para ter patente nacional ou internacional e fez cara feia quando viu que não tinha esse valor. Prefiro não citar nomes dessas organizações.

Desculpem se os cuidados que tomo parecem excessivos, mas como disse, é um terreno perigoso. Por exemplo, no site Reclame Aqui é comum as pessoas falarem mal e insunuarem que a empresa prestadora ficou com o dinheiro do consumidor indevidamente, e acredito que a maioria das empresas deixa isso passar em branco. No entanto, quando uma pessoa reclamou de um desses serviços de patentes, a empresa não só respondeu como disse que já intimou judicialmente o reclamante e outros cidadãos pelas calúnias e difamações! (vide: http://www.reclameaqui.com.br/18679/associacao-nacional-dos-inventores/associacao-nacional-dos-inventores/) Eu não sei, nunca vi uma empresa chegar a tanto só porque o consumidor disse que houve roubo de dinheiro, até ontem achava que era um comentário comum! Mas se eles mexem com leis, registros, devem saber mexer com isso.

Na OPERAÇÃO SORAIA agirei com tentativa e erro. Não quero recomeçar complicadas discussões sobre coisas que preciso ou não preciso fazer, mas se alguém quiser comentar, peço que comentem no meu e-mail pessoal e não para a lista.

Eis o que farei:
– mostrar a idéia no meu blog
– contatar sites e blogs de terceiros para ver se elas podem divulgar o projeto
– explicação ao vivo para interessados
Essa primeira etapa faz parte de mostrar e atrelar a autoria a mim. Ainda que inseguras, registros na internet são um respaldo jurídico caso precise. (repito: talvez cuidado excessivo, mas melhor prevenir nesse terreno)

– conhecer e conversar com pessoas da área de informática e design e ouvir conselhos
– caso pareça haver necessidade, registrar a invenção no INPI (sem intermediários)
Nessa 2° etapa, o objetivo é conversar sobre a viabilidade do projeto e se possível encontrar possíveis desenvolvedores e empresas. Como a conversa sobre registros pode aparecer (já que sei de antemão que internet é uma prova fraca), pode aparecer a proposta sobre patentes e INPI.

Nesse ponto explico: como disse, agirei com tentativa e erro, motivo pela qual não abraçarei o não-às-patentes-de-software como princípio, embora simpatize com a idéia e como a minha idéia é sobre interfaces, não vejo muito sentido em apenas uma empresa adotar, até por questão de compatibilidade entre aplicações e tal. É por isso que quanto ao INPI, se necessário, pretendo tomar apenas as medidas para provar a autoria, se eu der entrada e a patente for arquivada ao invés de conseguir exclusividade para exploração eu vou achar ótimo, pois não vou precisar ficando anuidade de manutenção da patente e outros não poderão roubar a idéia. Mas se todo o registro for necessário, quero dizer que estou inclinado a adotar a licença dupla, uma comercial e outra GPL.

Por isso, mesmo não abraçando o princípio de não-patente, acho que vocês devem ter entendido um pouco do que penso. Sobre BSD e domínio público, não tenho interesse. Prefiro que sejam gestadas formas da GPL arrecadar dinheiro e não simplesmente deixar qualquer um explorar. O sistema operacional BSD tem partes exploradas pela Apple e pode ter pela Microsoft no Barrelfish, da Apple o que se tem é só um acordo informal e de simpatia e que com a MS acho que nem isso vai ter. Quer quer liberdade diz que GPL tem muitas cláusulas, mas prefiro que as tenha. (outro ponto que não pretendo abrar discussões pois como dizem, isso de GPL x BSD gera um debate de 5 horas!)

Sobre erros e acertos, pode ser que já começo errado, nessa de primeiro mostrar a idéia para depois cogitar INPI. Segundo a explicação da ANI (Associação Nacional dos Inventores):

“Aconselhamos aos inventores que não registrem suas invenções no cartório , pois além de não ter validade alguma , o inventor corre o risco de tornar de imediato o domínio público de seu projeto ou invenção . Pelo atual código da Propriedade Industrial, qualquer invento divulgado,ou registrado em cartório antes do seu registro oficial de patente  (depósito) perde a validade jurídica, pois existe um têrmo comumente usado pelo INPI de “domínio público”. Isso acontece quando um terceiro interessado prova ao INPI que a pessoa que está pleiteando o domínio daquela patente, a está divulgando antes de registrar, e qualquer prova desde que fornecida ao INPI é o necessário para derrubar a patente.” (http://www.inventores.com.br/sistema/home/como_trabalhamos.aspx)

Registro em cartório é uma das coisas que pensei. Contudo, o conselho acima, da ANI diz que é um procedimento totalmente errado.

Mas vamos ler com cuidado. Está sendo dito que o registro em cartório equivale ao domínio público, o que é verdadeiro pois a advogados ou outros podem ir ao cartório pedirem o papel e lerem o papel, ficarem sabendo dos detalhes do projeto. É domínio público para quem pedir para ver, não é que tá no Portal Domínio Público do Governo para qualquer internauta ver. Então quem será o “terceiro” que vai dizer ao INPI que no cartório do fim do mundo já tem um registro? A não ser que se saia divulgando por aí, serão os ex-sócios ou concorrentes.

E como funciona a prova? Funciona para dizer que o papel que tá no cartório que atesta a minha autoria, siginifica que outros podem ter lido e portanto o INPI fica impedido de atestar a autoria da patente a mim pois aquele papel do cartório dizendo que o autor sou eu tem caráter de domínio público e assim a patente não é concedida.

Paradoxo? Total. Convém lembrar que essa denúncia precisa ser feita enquanto o INPI está analisando a patente, depois não dá. Por isso a gente fica sabendo que tal coisa é registrada só depois da patente ser concedida, quando não dá mais para contestar. Tá certo que em casos como a Microsoft ter patente das teclas PageUp e PageDown talvez o questionamento valha até depois ca concessão, mas deve dar trabalho.

E mais, tô aqui dizendo que vou divulgar o projeto, não é ? Se você quiser me impedir precisa ser enquanto a patente está sendo analisada. Sei lá, de repente já fui ao INPI e amanhã já vai sair o parecer. Ou só vou daqui a 10 anos. Como você vai saber o momento certo de reclamar lá no INPI? E mais, aposto que não basta chegar lá e dizer que minha idéia não vale. Lá no INPI só estão os balconistas e não os examinadores. Provavelmente você precisaria saber no mínimo o número do processo.

Num português bem claro: quem vai reclamar lá no INPI alegando “domínio público” pois viu o projeto no cartório ou outro lugar será um vilão próximo de você ou um concorrente fazendo espionagem industrial. Pior que ele não vai ganhar nada, vai ser só querendo te prejudicar (sejá lá o que você ia ganhar com patente), pois se ele prova que o projeto tava visível ao público significa também que não dá para registrar como projeto dele.

Mostrei esse caso para dizer que esse terreno é cheio de filhas da mãe.

Mas agora desencadearei a OPERAÇÃO SORAIA e mostrarei o projeto antes de ia ao INPI, doa a quem doer. No próximo mail mostro a por que o projeto se chama SORAIA.

Tem vários projetos e prótótipos que a Microsoft está desenvolvendo, e a marca pode ter seus fãs. Mas sinceramente tem momentos que acho que eles estão dando bola fora!

Um anúncio diz que No Windows Phone 7 não haverá recurso de copiar e colar (http://www.guiadohardware.net/noticias/2010-03/4BA13425.html)!

E outro diz que no Windows 7 Starter o papel de parede não poderá ser trocado (http://www.fayerwayer.com.br/2009/06/windows-7-starter-nao-permitira-trocar-papel-de-parede-atualizado/all-comments/#comment-413144)!

E para ambos os casos, a justificativa que a empresa dá é que se tratam de recursos pouco usados (respectivamente para celulares e netbooks). Quando penso que Eles são responsáveis pela manutenção do suporte ao sistema mais usado no mundo, fico arrepiado com decisões como essas!

E ai de quem me disser que simplificar é um caminho para o futuro! Primeiro que simplificar e tirar recursos são coisas diferentes

Do lado dos concorrentes, infelizmente o iPhone, derivado do MacOsX, retirou o recurso de multitarefas na hora de criar o iPhoneOS. Prevejo que esse problema ficará mais evidente quando chegarem os iPad na metade de abril desse ano.  iPad também virá com iPhoneOs, e como tem uma tela maior, acho que muitos vão pensar em rodar 2 aplicativos do iPhone, como se fossem janelas lado-a-lado. Pois bem, isso não funcionará pois o sistema é monotarefa, ou seja, faz uma coisa de cada vez. Um cara reclamou por exemplo, que não dá para deixar o navegador carregando uma página Web e usar outro aplicativo para, digamos, trocar de música. Enquanto estiver no aplicativo de música o de navegar na internet fica congelado.

Já no Palm não tem esse problema. Veja esse comercial ressaltando a função “Multitasking” (Multitarefa) do WebOs:

História do Copiar e Colar no iPhone

O que a Microsoft poderia alegar é que o iPhone não tinha copiar e colar. Poderia, não pode mais. No começo de 2009 esse recurso não tinha saído. Em 25 de janeiro o site iPhoneApps.com.br fez um teste comparativo dos aplicativos que tentavam sanar esse problema. Confira em http://iphoneapps.com.br/aplicativos/cydia/clippy-vs-hclipboard-a-batalha-do-copiar-e-colar-no-iphone/

Tinha que ser pelo aplicativo, pois pelo sistema, havia maneira de copiar e colar só que pouco intuitiva, como comentou o site iHave.com.br em 2007 http://ihave.com.br/2007/08/copiar-e-colar-no-iphone/. O vídeo abaixo do Vimeo foi encontrado lá e mostra essa maneira pouco intuitiva (pelo menos a musiquinha do vídeo anima as pessoas a pensarem que não é tão difícil! Bom marketing!)

Até que o recurso finalmente apareceu na versão 3.0 do iPhoneOS. Em 18/3/2009 blog not-yogurt disse que no dia anterior saiu o novo sistema e perguntou “por que demorou tanto?” http://not-yogurt.blogspot.com/2009/03/iphone-com-copiar-e-colar-por-que.html

Há uma ironia no post do blog: Ele pergunta se a Apple mudou de ideia por causa dos concorrentes, citando aí o Windows Mobile!

Bom, aí vejam como ficou o novo copiar e colar no IPhone (vídeo de julho de 2009)

Controle remoto de meio metro!

27 de Março de 2010

Do mesmo estúdio de Design do teclado Optimus Maximus, a Art Lebedev desenhou Pultius, um controle remoto para TV com meio metro e mais de 100 teclas!

Para que? Segundo eles, é porque ter um botão para cada canal de TV a cabo é mais rápido e prático que ter de combinar umas três teclas do controle remoto normal.

Será mesmo? Vamos conforntar!

Round 1: Pultius vs controle remoto normal

Vejamos: de fato, para usar só um botão no controle remoto normal de 0 a 9, só se a TV tivesse apenas 10 canais (incluindo o canal 0). Em muitos modelos de TV, é por isso que existe um delay de tempo, e o delay funciona como uma confirmação de dados. Se jocê quiser ir ao canal 13, apertando 1 e 3, e um segundo e meio depois a Tv sintoniza no canal 13. Para canal 2, se apertar só 2, demora 2 ou 3 segundos para a Tv ter certeza que você quer só 2 e não canal vinte e alguma coisa.

A confirmação de dados no computador é o clássico “Enter”. Na calculadora é o sinal de “=”, ou seja, servem para dizer “já terminei de enviar os dados, pode processar”. Ainda que a Tv facilite, fazendo com que o delay seja a confirmação, é de fato um pouco angustiante a espera para que ele entenda para que canal queremos ir.

REsultado do round 1:  Pultius ganhou, ele é mais rápido que os controles normais que precisam da confirmação, no Pultius o apertar é junto com a confirmação. Só que o tamanho…

———

Round2: Pultius vs TV antiga

(Repararam que a imagem acima não é uma Tv de verdade mas um desenho 3D? Essa é uma imagem gentilmanete cedida por Victor http://victorribeiro.com/)

Sou de uma época em que vi TVs sem controle remoto e para mudar o canal era mais rápido. Porque? Nas TVs velhas havia botões ou uma roda seletora para selecionar os canais. Você selecionava e pronto, não tinha o delay de tempo do controle remoto moderno. A TV velha possuía uma gavetinha, ou portinha que você abria e com cuidado girava parafusos ou engrenagens para sintonizar adequadamente cada canal (o que você esperava? Um botão que abria um menu dentro da tela? Que é isso, antigamente com a gavetinha ou portinha você configurava a TV sem que o menu cobrisse parte da imagem que passava na TV. O volume você aumentava sem ficar saindo aquelas barrinhas que atrapalham para ver a legenda dos filmes!).

Uma vez configurado, cada botão/posição da roda correspondia a um canal, então a mudança era rápida! Por outro lado, para acessar mais de 100 canais, a lateral da TV também teria de ser grande para abrigar os 100 botões ou com uma roda bem grande para que cada posição da roda acesse um canal. Empate na rapidez e no tamnho necessário, mas o Pultius ganha pois é controle remoto, não precisa ir até a TV!

———

Round3 Pultius vs iPhone red Eye

Que tal uma outra alternativa mais high-tech?

Controlas a Tv usando iPhone! E aí? Vejamos: aí é preciso um toque no iPhone para procurar o aplicativo, outro para aciona-lo, para apertar os botões 0 a 9 e por fim sintonizar!

É, o Pultius ganhou de novo nos quesitos rapidez e facilidade de acesso aos canais!

Claro que o iPhone não ocupa meio metro, mas por ser um aparelho multifunção, sempre há o incoveniente de ter de acessar o aplicativo correspondente às funções de controle remoto. Uma alternativa melhor que Red Eye seria se o aplicativo fosse direto à longa lista de botões, ao invés de haver a etapa intermediária de selecionar o aparelho de TV (já que o Red Eye é para uma tarefa – de ser controle remoto – mas tem uma lista a escolher – “controle remoto do que ser?”) quer dizer, dentro do iPhone, que já é multifunção, temos um aplicativo que também pode ser multifunção, dobrando as etapas intermediárias. Mas mesmo com menos etapas, como a área do iPhone é pequena, tem de ficar rolando a página, embora isso seja de menos, pois no iPhone isso é bem fácil, só ir passando o dedo. Se bem que para 100 canais haja dedo!

———-

Round 4 Pultius vs tela flexível (que ainda não chegou a o mercado)

Para ganhar do Pultius, só mesmo temdo uma superfície grande mas sem o incoveniente de ocupar meio metro. Se o tamanho pode ser problema até para a facilidade de rolar página do iPhone, talvez um candidato à altura seja uma tela flexível sensível a toque. Aí se desenrola e aperta. Porém, a vitória só vem se o trabalho de carregar algo a desenrolar  for menor que a de carregar algo de meio metro.

———-

último Round: vamos pensar por nós mesmos

Pensando na questão das Tvs antigas, tive uma idéia: acontece que comparando as antigas e modernas, as modernas praticamente só têm borda, e muito discretamente nos cantos o botão para desligar, acesso às opções e “+/-“. O “+/-” servem para cruzar com as opções que o botão do lado oferece, assim pode servir tanto para volume, nitidez, contraste, etc. Antigamente cada rodinha (analógica) era para cada coisa.

Enfim, se da TV antiga para moderna os botões/rodas sumiram, por que não aplicar à idéia para controle remoto? Já sei, um que seja super-minimalista com 3 botões: o “+”, o “-” e o de chamar opções. Assim para mudar volume, contraste e trocar de canal é tudo pelos 3 botões. E se no Windows você tem de acessar o menu Iniciar para Desligar (o que já rendeu umas piadas), então desligar a TV também pode ser uma das opções.

Mas o lado ruim é que serão tantas opções a aparecer na tela da TV que vai se perder tempo para navegar entre elas.

Por outro lado, quem disse que apertar números é a melhor maneira de procurar canais? Isso vale para quem sabe de cor os canais que quer. Mas mesmo sabendo, pegar a superfície de meio metro para achar o número certo… Tem que ter boa mira para acertar de cara (se bem que o Pultius ajuda muito oferecendo cores diferenciadas).

O ponto fraco do Pultius que poderia ser explorado para ganhar dele é que ele é estático, os botões não mudam pois são físicos, coisa que não acontece nos menus que aparecem na tela da Tv ou na tela do iPhone. Uma coisa interativa que não atrapalhe o que se passa na Tv poderia ser oferecida pelo iPhone ou com tela flexível sensível a toque. Navegação, crusamento de dados, um delay de tempo ou dados que precisem de um Enter antes de serem confirmados. Se as pessoas conseguem achar as cores que querem em paletas dos programas de manipulação de imagens, porque elas nao poderiam achar o canal que quisessem pelas cores numeradas (ou o contrário: números coloridos) do Pultius? Talvez algo como um aplicativo para o iPhone que  mostre as cores do laranja ao roxo, como no Pultius, e com um pouco de navegação (zoom na região da cor selecionada), se chega ao número do canal desejado. Usa alguns toques, mas pelo menos não tem aquele tamanhão.

———

Vi isso aqui e tive outra idéia.

OK, explicando, no ábaco cada conjunto de bolinhas forma números, sendo que não é necessário 10 bolinhas para representar o número 10. Lembram-se dos números romanos? De 1 a 3, usamos 3 tracinhos (I, II, III), para 5 a 8, não são de 5 a 8 tracinhos, mas de 1 a 4 tracinhos (V, VI, VII, VIII). A idéia é parecida para o ábaco. Cada conjunto de colunas consegue representar 1 casa decimal.

Então como seria combinar isso com alta tecnologia?

Hummm, essa foto que encontrei é estranha: eles usam tecnologia translúcida no iPak? Bom, deixa para lá.

Pensando bem, não precisa ser nem em tela com touchscreen, pode ser uma coisa física, com os botões do Pultius, só que com peças de deslizar, o que lembram um pouco os aparelhos mais antigos.

O importante é que vai caber na palma da mão. No caso, vendo o iPak, estamos vendo quantas colunas? 12. Assim dá para fazer combinação de 1 seguido de 12 zeros! 1 000 000 000 000 combinações! Bastavam 2 colunas para ter 100 combinações. Poucas peças, não precisa ser de touchscreen, será que conseguimos finalmente bater o Pultius?

Bom, o único probleminha e´que as pessas vão precisar aprender o ábaco… lembra um pouco aquela história de ter de aprender uma nova tecnologia para usar algo mais intuitivamente (parece uma contradição, mas foi assim quando veio a interface gráfica: as pessoas iam fazer um curso básico e depois achavam aquilo intuitivo. Só que não tão intuitivo a ponto de aprenderem sozinhas! OBS: mas os filhos dessas pessoas frequentemente aprendem sozinhas).

Mas não que seja tão melhor encarar uma superfície de meio metro, orientar-se pelas cores e achar o número certo! Olha, para mim que já sei a numeração no abaco (e assim acabo achando intuitivo), acho que dessa vez ganhamos: um controle remoto pequeno, com 2 colunas de peças móveis, e que para acessar o canal não tem delay, nem confirmação, basta colocar o número no ábaco.

Não gostaram? Bom, pelo menos espero que tenha inspirado vocês a pensarem em questões envolvidas no processo de desenhar solulções para usuários

Vamos falar sobre mais teclados. Bem, vejamos esse:

Esse produto não está à venda, é um conceito do designer Kong Fanwen. Os dedos tocam no vidro e uma câmera trata de interpretá-los.

Como não se trata de usar teclas físicas, o problema é o mesmo do Optimus Tactus, que já comentamos antes. A diferença com aquele é que o Tactus era um touch-screen então passava imagens na superfície (o que é claro, tem seu  preço $$$$)

Optimus Maximus e Tactus devem ser muito caros, então achamos outra proposta interessante, os modelos da Lexeed.

A diferença entre Maximus e Tactus era que uma tinha teclas físicas enquanto a outra era uma  superfície só, mas ambas personalizavam as teclas, o que traz a vantagem dos usuários não precisarem decorar combinações de teclas: basta os programas personalizarem o layout do teclado e pronto, a informação que ficava na cabeça do usuário agora está nas teclas, para ele não esquecer.

Mas se isso custa caro, a Lexeed oferece a solução intermediária: teclado com leds.

Por serem um conjunto de leds, não dá para desenhar ícones e muito menos passar vídeo como nos Optimus (abaixo)

Mas vejam que ele permite uma quantidade razoável de personalização, dando para configurar a cor de cada tecla. Por exemplo, para usar um editor de imagens, no Optimus Maximus dava ter ícones de tesoura, lápis, seleção, etc. No Lexeed você pode ter uma cor para cada uma delas,ou separa por grupos de cores ferramentas de pincel, ferramentas de seleção, de recorte, etc.

Aí você tem de decorar o que cada cor tá associado a o quê, mas pelo menos é mais fácil do que decorar essas coisas no teclado normal sem cores.

E sendo as cores manipuláveis, você não precisa mais de teclados com cores fixas como esses:

E se elas permitirem animação e interação em tempo real (não tenho certeza se oferecem isso), você pode ter joguinhos, obviamente não do tipo Nintendo DS, que seria possivel principalmente no Optimus Tactus, mas algo mais simples como minhocas formadas por teclas coloridas fugindo pelas teclas apagadas (bom para quem tiver saudades dos anos 80)

:o)

teclado Optimus Tactus

25 de Março de 2010

Bem, vocês se lembram do Optimus Maximus Keyboard, aquele que cada tecla pode ser personalizável? (na foto abaixo, configurado para jogar Doom)

O modelo Maximus é caríssimo pois cada tecla é um visor (na pré-venda se falava em US$ 1500), mas existe o modelo Tactus que é uma superfície só. Mas nesse caso, ao invés de apertar teclas, usa-se a tecnologia touchscreen (enquanto que no outro, era um visor sem tecnologia de sentir o aperto pois o aperto podia ser mecânico, como nos teclados normais):

Se é melhor? Bem, quando se fala em touch-screen há reclamações. Há modelos de celular com touchscreen e com botões. A Palm por exemplo, resolveu enfrentar o iPhone oferecendo os dois: tem touchscreen e teclado. E não é para o iPhone surge um acessório para simular os botões?

No lançamento as mulheres reclamaram que não dava para usar iPhone com unhas compridas, talvez esse acessório de US$ 30 ajude…

Ter a sensação de apertar é algo importante, tanto que a empresa Embotec criou um teclado em que ao invés de molas e borrachas as teclas são sustentadas por ímãs, e controlando a força magnética delas, a sensação de apertar muda, sendo assim é possível ajustarem a dureza de apertar as teclas. O produto foi desenvolvido pois as pessoas falavam que ao sentir a dureza diferente do teclado na hora de digitar o rendimento delas caiu no trabalho ou em casa. (vide http://tecnologia.terra.com.br/interna/0,,OI1815346-EI4801,00.html)

Enfim, não sei se o Optimus Tactus será um sucesso como teclado, pois a sensação de apertar ela não vai oferecer, mas por ter uma superfície ainda mais configurável que o Maximus – por não ter o relevo de teclas, ela promete que será possível até passar vídeos no teclado. No Mamixus também acho que dava, mas como tinha forma de teclas, o vídeo ficava com aquele incômodo de ser dividido em pequenas telas.

Assim, o Tactus fica numa estranha situação de funcionar também como 2° monitor, mas deitado, enquanto as pessoas compram o 2° monitor para deixar de pé. Ainda, se a pessoa precisa ficar olhando para baixo antes de saber o que apertar (o lado ruim da imensa possibilidade de customização), a pessoa pode ter problemas de ergonomia no pescoço, como explicava o vídeo da 10/Gui, lembram-se?

Ele abre muitas possibilidades, pois o computador tem possibilidade de virar algo como Nintendo DS gigante, contudo, o nintendo DS tem jogos e programas que foram especialmente desenhados para usar 2 telas, o que não é o caso do computador de mesa com Optimus Tactus. Sendo assim, o aproveitamente da tecnologia fica meio limitada.

No que ela pode ser usada? Assistir vídeos no próprio teclado vai dar dor de pescoço, mas pensando bem, se a barra de tarefas (do Windows) ou o Dock (do Mac) ficarem no teclado, vai poupar espaço do monitor principal. O que me lembra… ah sim! A visão da Microsoft da 2019!

Assim, Sendo otimista, tecnologias como vimos no vídeo Visão da Microsoft para 2019 (comentado num post passado) vão usar aparelhos como Optimus Tactus em toda sua potencialidade, já que naquela visão, superfícies touchscreen estarão em todo canto.

Mas sendo pessimista, em se tratando de um hardware incomum, programas desenhados para aproveitar a tecnologia serão poucos, e o mais próvável é que ficará para o usuário manualmente decidir como aproveitar, ou seja, o que passar nesse teclado/2°monitor.

Digo manualmente pois enquanto no Nintendo DS já é automático o que deve passar em cada tela, no caso do Tactus caberá ao usuário decidir o que ver nele.

Por causa da ergnometria, não pode ser coisa que demande ficar olhando direto, como vídeo, mas se os programas desenharem coisas a apertar personalizadas, será uma boa (por exemplo, tem programa que só precisa dar OK ou Cancela, Para tanto bastaria desenhar na superfície do touchscreen uma tecla Enter bem grande e do lado um “Cancela”). Ao mesmo tempo, o usuário não pode ficar acostumado demais com a possibilidade de 2° monitor pois de vez em quando ele precisará usar o touchscreen como teclado, digitando coisas, e aí precisa mandar as janelas que estiverem aparecendo no teclado-monitor para outro lugar. No exemplo acima, o Tactus é usado para mostrar a paleta de cores no Photoshop. Mas quem mexe no Photoshop sabe que é necessário usar um monte de teclas de atalho, e aí, como usar essas teclas no se o espaço tá tomado pela paleta?

Esse seria um projeto da Microsoft em desenvolvimento. (digo “seria” pois por alguma razão os expectadores do Youtube estão dizendo que se trata de um fake, embora exista um site da Microsoft que pareça ser verdadeiro: http://research.microsoft.com/en-us/um/redmond/groups/cue/MuCI/)

O vídeo abaixo mostra a principal idéia: poder controlar aparelhos sem ter de esticar as mãos para tal, mas apenas fazer movimentos menos trabalhosos para tal:

O problema são os vários fios que teriam de ser ligados ao corpo:

Por isso gostei mais dessa outra pesquisa sendo desenvolvida pela Universidade de Osaka: não precisa ligar um monte de coisas no corpo, mas sim apenas colocar os fones de ouvido. Os fones sabem a distância um do outro pelos sensores de infravermelho, e quando a pessoa sorri, mostra a língua ou levanta a sobrancelha os fones percebem que o músculo facial se mexeu e assim podem parar ou tocar a música do Walkman.

Claro que comparando com a proposta da Microsoft, o recebimento de tipos diferentes de sinais deve ser mais limitado e por isso talvez só dê para usar no Walkman e outros aparelhos simples, mas por não precisar colar tantos receptores no corpo vale a pena.

Por outro lado, esse tipo de incômodo não geraria reclamações de quem não tem braços ou tem outra deficiência física, quando a pessoa pode controlar os músculos para fazer sinal com os dedos, mas ela não tem os dedos ou os dedos não se mexem. Nesse caso a tecnologia mais complexa ligada a vários fios seria bem-vinda pois o maior feixe de tipo de sinais emitido pelos músculos permite o controle de aparelhos mais complexos e até enviar sinais para aparelhos distantes, como no exemplo do vídeo, em que um carro foi aberto antes do ususário chegar ao carro.

comentando http://www.guiadohardware.net/noticias/2010-03/4BA7CE47.html

Seria um reflexo da ameaça das patentes da Apple?

A Palm patenteou a ação de aplicativos acionados de acordo com a posição do aparelho. Por exemplo, o aplicativo de tirar fotos quando o aparelho ficar na vertical (o que, convenhamos, precisaria ser aperfeiçoado pois assim só dá para tirar fotos numa posição – de frente – e não fotos de coisas que estejam no céu ou no chão) ou, quando colocado em cima da mesa,  o aplicativo de organizar fotos mostra as fotos tiradas.

O iPhone já tem recursos por exemplo de chacoalhar equivaler a Ctrl+Z (desfazer), ou seja, se a Apple for em cima da Palm por causa da patente sobre o Multitouch, agora a Palm tem como revidar. Mas, vou dizer a mesma coisa de quando a patente da Apple foi noticiada: as companhias estão criando dificuldades para desenvolver e padronizar essas novas tecnologias de enviar dados (imput) para os programas.

A patente da Palm abrange não só contextos detectados pelo acerelômetro (dispositivo que reconhece os movimentos sendo feitos com aparelho, como detectar se ela está na vertical/horiziontal, sendo chacoalhado, etc), mas também o contexto por GPS. Ou seja, além de detectar como a interface deve responder de acordo com o que acontece com o aparelho, poderá responder de acordo com o local onde o aparelho de encontra no mundo. A notíca do Gdh exemplifica que se o GPS percebe que o aparelho se encontra dentro do restaurante, vai ser exibido o cardápio. Até onde sei, isso é novidade: os engenheiros da Apple também pensaram no iPhone ou iPad exibindo cardápios, mas não usando o contexto via GPS e sim a pessoa acessando o cardápio pela internet ou o restaurante enviando o cardápio ao recém-chegado via wireless.

PROVOCAÇÃO NO RESTAURANTE

Mas essa do restaurante me lembrou do Microsoft Surface e do iBar. Pois antes de vender o Surface para o lar, a Microsoft pensa em primeiro oferecer para hotéis e restaurantes.

Como já vimos o vídeo do Surface, vamos dessa ver o do iBar, da Mindstorm (embora seja um vídeo longo que só mostra o recurso de enfeitar o ambiente, ver alguns segundos bastam):

Lembremos que na proposta do Surface, quando uma câmera é colocada em cima dele, o surface puxa as fotos da máquina sem precisar ligar por cabos USB.

A questão é: e se essa proposta da Surface for patenteada também?

Vamos a um exemplo: um casal leva o celular para um restaurante com Surface ou iBar e quer que ao colocar o celular no balcão apareçam as fotos que eles tiraram num passeio.

Aí teríamos um conflito: Uma patente da Palm usaria o GPS, saberia que o aparelho foi colocado em cima do balcão e mandaria as fotos. Mas uma outra patente detecta as fotos do celular e puxa as fotos. Quem processa quem? E  o consumidor, paga pelas duas patentes?

Esse é um exemplo de como as patentes podem atrapalhar. A verdade é que no mundo de hoje as patentes não são tanto instrumento para um cidadão comum usar mas sim instrumentos que as grandes companhias querem ter para ameaçar umas às outras.  Enquanto o cidadão comum quer patentear apenas o que é relevante, até porque não interessa ter apenas quantidade pois quanto mais patentes tiver mais taxas anuais terá de pagar após a patente ser concedida, as empresas querem ter o maior número de patentes possíveis, e aí entram muitas patentes que a gente contesta a relevância, pois são coisas que qualquer companhia desenvolveria numa certa época (florescimento de uma tecnologia nova como touch-screen ou acelerômetros) e se pensarmos bem, não é nem que o recurso apareceu primeiro na companhia que registrou.

E todo esse cenário, em que as patentes são usadas como minas subterrâneas pelas grandes empresas atrapalha também o cidadão comum que queira desenvolver novas tecnologias mas pode esbarrar nessas armadilhas.

Não sou bom palpiteiro de tecnologias (muitos anos atrás, no passado, palpitei que as câmeras digitais não iam pegar, e errei feio!). Mas vendo esse Gesture Cube, tenho de dizer pelo menos que parece bem promissor.

Esse projeto, que fiquei sabendo pelo BlueBus é mais interessante que o Microsoft Surface pois dos projetos que vi até agora, é um dos que mais se aproximam de quebrar o paradigma bidimencional das janelas.

Por um motivo: a tridimensionalidade teria de incluir também uma superfície que não podemos ver, dependendo de onde estivermos. Pois pela teoria das dimensões, um ser de visão em 3 dimensões tem vantagens sobre quem enxerga em 2D, pois enquanto o ser de 2D só enxerga as faces do quadrado, o ser de 3D enxerga o cubo. E o ser que enxerga em 4D enxerga não apenas todos os lados do cubo, como até mesmo o interior do cubo. E os movimentos feitos pelo ser 4d são totalmente inesperados e surpreendentes para o ser 3D, que verá espantado o ser 4D sair de trás do “nada”.

Recomendo a Wikipedia sobre quarta dimensão, onde se lê:

“Por exemplo, no livro Flatland (‘Planolândia – um romance de muitas dimensões’), Edwin Abbott escreve sobre um certo Sr. Quadrado que vive num mundo bidimensional, como a superfície de uma folha de papel. Um ser tridimensional (uma esfera) surge em seu mundo e parece (do ponto de vista do ‘chatalandês’) ter poderes quase divinos: é capaz de tirar objetos de dentro de um cofre sem abrí-lo (ou seja, movendo-o através da terceira dimensão), ver através das paredes (bidimensionais) e ficar completamente invisível apenas movendo-se umas poucas polegadas na terceira dimensão. Ao aplicar a analogia dimensional, pode-se deduzir que um ente quadridimensional seria capaz de feitos similares da nossa perspectiva tridimensional. Rudy Rucker demonstra isto em seu romance ‘Spaceland’, na qual o protagonista encontra seres quadridimensionais que demonstram tais poderes.”

Mas vamos voltar ao Gesture Cube.

Primeiro, veja o Microsoft Surface:

Agora vejamos o Gesture Cube:

Notem que no Gesture Cube se vira as páginas do álbum de músicas fazendo gestos para a face do lado do cubo, e o volume é controlado pela vértice entre a face frontal e a do lado. Assim para quem está vendo a face superior, foram feitos movimentos “invisíveis”: para aumentar o volume não apareceu a barrinha do volume. Para “virar” a página do álbum não apareceu a página num canto da tela.

Mesmo em coisas simples como desktops 3D (como o cubo de desktops do Compiz), temos esse aspecto das faces não visíveis que se tornam visíveis quando acontece um movimento chamando a tridimensionalidade. Aí entra a vantagem do aparelho ser um cubo: não é que com um gesto a face do lado vira para aparecer na face superior, não é simplesmente um giro de desktop. Para mudar o volume poderia ter sido um movimento de mostrar o desktop com a barrinha do volume para mexer na barrinha que apareça graficamente. Sim, a barra do volume aparece numa das faces do cubo, mas pode-se controlar sem estar vendo-a, olhando apenas a face superior.

Girar a face do cubo é necessário para o Compiz, que usa telas normais, ou seja, usa tecnologia 2D para simular 3D. Também é necessário para o Surface, que por ser grande não importaria de num canto da sua tela 2D ter a barrinha de volumes ou a próxima página do álbum, mas se o hardware em si for um cubo, esses dados podem ser conferidos sem apontar com mouse nem tocando no touch-screen, podem ser checados apenas virando a cabeça. Pode ser um incoveniente para alguns mexer a cabeça, mas vejam que o Gesture Cube ocupa menos espaço e é mais fácil de transportar que o Surface. Enfim, ela reduziu o espaço ocupado pelo 2D adotando o hardware 3D.

Vocês podem dizer que vendo cada face do Gesture, ela não trouxe novidade nenhuma se encararmos cada face como um touch-screen isolado. Mas como disse, a novidade está no conjunto, de fazer gestos para o que você não precisa ver, não precisa ocupar espaço na tela principal.

Refletindo sobre o assunto vejam as câmeras digitais:

Por que é que mesmo incorporando touch-screen elas não aposentaram todos os botões? Se elas têm uma tela que apresenta os recursos, e pode-se chamar os recursos pela própria tela, teoricamente ela poderia aposentar todos os botões. Para quê aquela rodinha de selecionar os modos? A roda poderia aparecer dentro da tela. Até mesmo o botão de disparo poderia ser eliminado, basta tocar na tela para fotografar, ora! Mas os botões existem, e se encararmos a câmera como um cubo, eles se localizam nas outras faces que não a da tela. E pra quê? Porque elas permitem um controle tridimencional, ou seja, se mexe numa dimensão, e a tela fica poupada de ter de mostrar mais informações. Imagine que difícil para as câmeras, já pequenas, necessitarem ocupar o espaço da tela para alternar entre os modos “noite”, “esportivo”, etc. Com a rodinha, você vira a rodinha (sem precisar olhar para ela) e você vê já na própria tela as mudanças, por exemplo, você poderá ver que no modo noite a imagem ficará com as luzes claras mais ressaltadas. Não precisou ser assim: janela da imagem tela cheia, alterna de desktop (ou se janela) para acessar a rodinha na tela, volta para a imagem, volta para a rodinha…

OK, câmeras ainda têm lados, faces, mas e o computador de mesa? É, no computador de mesa os botões laterais do monitor são só para ajustar o próprio monitor mesmo, poderiam ser para virar a página virar a face, mas não é assim.

Ah sim, e por fim, diferente do Surface, o Gesture Cube funciona por gestos e não por multi-toques. Ambos os projetos mencionam que a cozinheira do futuro vai querer ler as receitas pelos gadgets. Quem já cozinhou sabe que muitas vezes nossas mãos ficam sujas de farinha, etc. Nessas horas um controle por gestos e não por toques é vantajoso por não sujar o aparelho. E suja menos ainda se o gesto for dado pelos lados verticais do aparelho e não por cima, aí a farinha não cai na superfície de visualização!

;o)

arma (game) com realidade virtual

20 de Março de 2010

Recentemente me explicaram a diferença entre realidade aumentada e realidade virtual. A realidade virtual seria uma realidade que está do outro lado (da tela), ainda que possa ter interação através de joysticks. E realidade aumentada seria o que tenta mesclar, seja através de telas-espelho ou através de óculos tecnológicos.

Assim, me parece que o caso abaixo é de realidade virtual, mas deixando essas classificações de lado, olha que legal:

Comentando: esse jogo pode quebrar o paradigma de “atire no que aparecer pela frente”. Se o sistema de som for bom (daqueles que dê para ter noção tridimensional do espaço) vai ser possível apontar a arma para ameaças que ainda não apareceram na frente (como por exemplo o helicóptero, quando o jogador apontou para o teto e atirou). É de fato muito bacana a interação: para qualquer lado que se aponta, uma realidade virtual é projetada de acordo com o movimento!