『 』Voce e o Mundo 『 』

Seja bem-vindo. Hoje é
IP

terça-feira, 26 de abril de 2011

Mouse touchscreen para homens

Conceito de Nitin Mane
Fonte: Nitin Mane - Imagem publicada com o consentimento do autor

O designer Nitin Mane desenvolveu um periférico conhecido como “Mouse for Men” (mouse para homens) para o concurso LG Cube Competition 2010. Ao invés de botões, o modelo apresenta uma tela touchscreen de OLED, sensível a diferentes pressões, recobrindo a superfície externa do aparelho.

Além de possuir diversas funcionalidades pré-definidos, o usuário seria capaz de personalizar e configurar a função de seus botões conforme suas necessidades. O conceito também possui um sensor de calor capaz de alertar o usuário de que ele está trabalhando continuamente por muito tempo.

O aparelho seria wireless e contaria com indicador de carga, sendo a parte traseira destacável o alimentador da bateria. Embora não apresente nada que impeça as mulheres de utilizá-lo, o designer indiano afirma que o Mouse for Men satisfaz as necessidades de espaço e conforto do homem moderno.

domingo, 24 de abril de 2011

CPU, o ponto de largada

A unidade central de processamento (ou processador) é a parte do sistema responsável por executar as tarefas indicadas pelo usuário. Através de inúmeros cálculos e consultas a dados, é ela a responsável em fazer funcionar o software que você deseja utilizar, por exemplo.

Mas e se você deseja abrir novamente o mesmo programa? Toda a informação teria que ser calculada e processada mais uma vez, gastando um tempo desnecessário e consumindo mais energia da sua CPU. Para isso, ela utiliza as tais memórias espalhadas pelo hardware, sendo que cada uma tem especificidades e alvos determinados.

quinta-feira, 21 de abril de 2011

Confira o melhor do evento RoboGames 2011

Confira o melhor do evento RoboGames 2011
Se você achava que brigas de robôs só existiam nos cinemas e seriados, vai se surpreender com os vídeos que ilustram esta notícia. No primeiro, você pode conferir a grande final do campeonato de Combots, os robôs de combate armados com serras e outras ferramentas destruidoras. A disputa aconteceu durante a RoboGames 2011, em São Francisco, Califórnia. Durante o mesmo evento, aconteceu uma outra luta. Todos os robôs humanoides participaram de uma “briga generalizada”, como pode ser visto no vídeo a seguir. É necessário dizer que essa “pancadaria” só aconteceu depois que todos já haviam participado da competição (em categorias de exposição, não combate), assim não corriam risco de serem prejudicados por danos.
Leia mais no Baixaki: http://www.tecmundo.com.br/9659-confira-o-melhor-do-evento-robogames-2011.htm#ixzz1JygAy7Vj

terça-feira, 19 de abril de 2011

(Fonte da imagem: OLED-Display)Os engenheiros da Fraunhofer IPMS estão anunciando um novo projeto, que será apresentado durante a SID 2011 (que acontece entre 17 e 19 de maio). O novo sistema integra sensores CMOS e microvisores OLED em um aparelho que atende aos padrões Head Mounted Displays (Telas acopladas à cabeça) e promete ser uma ótima alternativa para os desenvolvedores de softwares de realidade aumentada. Para que a realidade aumentada possa ser obtida nesses aparelhos, foram utilizados sensores bidirecionais. Em um dos lados são captadas as imagens do ambiente em que o usuário está, no outro são captados os movimentos oculares. E é com os olhos que os comandos de controle do sensor são realizados. Assim, os softwares podem ser criados para que haja uma sincronização entre visor e "mundo exterior". E tudo deve dispensar a utilização de comandos por toque ou teclas, visto que o sistema de rastreamento ocular deve garantir que os olhos sejam utilizados como fonte de instruções para os sensores. No futuro, os usuários poderão utilizar o visor acoplado à cabeça para assistir a vídeos enquanto praticam atividades esportivas, por exemplo. Isso porque na tela são combinadas as imagens geradas pelo aparelho e as captadas pelo sensor. Para avançar ou retroceder, bastará que sejam realizados movimentos com o globo ocular. Por enquanto as possibilidades ainda são bem reduzidas: no evento SID 2011 (onde o sistema será apresentado pela primeira vez) ele será mostrado com visor monocromático. Leia mais no Baixaki: http://www.tecmundo.com.br/9666-fraunhofer-ipms-mostra-visor-bidirecional-para-realidade-aumentada.htm#ixzz1JvpiiGEa

sábado, 16 de abril de 2011

Bing chegou para concorrer com o Google

A Microsoft apresentou seu novo sistema de busca, chamado Bing, que promete melhorar ainda mais os sistemas de bucas atuais, como o Google. A nova ferramenta exibe opções de compras e viagens nos resultados, além de um painel que permite explorar sugestões de navegação relacionadas à busca. O "best match" é o recurso que marca os melhores resultados na busca, exibindo muitas vezes o conteúdo relevante na própria página, sem a necessidade de clicar e sair do Bing.

Nos resultados de shopping, é possível visualizar opiniões de usuários e análises feitas. Já na busca de viagens, os resultados exibem comparativos de preços de diversas origens.

O serviço estará disponível no início de junho, previsão para o dia 3.

A concorrência é sempre bem vinda, espero que uma versão em português-BR esteja prevista ou entre imediatamente no ar quando o site for lançado.

quarta-feira, 13 de abril de 2011

Mito ou Verdade: pendrives perdem os dados se ficarem muito tempo desligados?

Compartilharcompartilhe este link

Você já parou para pensar na quantidade da sua vida que está armazenado em pendrives? Grande parte dos usuários utiliza as unidades removíveis para carregar fotos, textos, trabalhos e programas portáteis. O problema é que eles não são invencíveis, ou seja, há muitos erros que podem atingir esses dispositivos e, consequentemente, causar danos aos seus proprietários.


Há os que acabam quebrando por ficarem soltos nas mochilas e os que são infectados com vírus – e isso representa apenas uma fração do que pode acontecer. Além dos problemas conhecidos, há também uma grande gama de erros que são temidos pelos usuários, mesmo sem que exista a certeza de que eles realmente possam afetar os dispositivos de memória portáteis.

Uma dessas dúvidas é relacionada à perenidade dos dados armazenados. Você já parou para pensar que os pendrives podem perder os dados? Nos Estados Unidos, os pendrives são chamados de USB Flash Drive (clique aqui para saber se faz mal deixar os pendrives ligados o tempo todo), pois o tipo de memória utilizada é Flash, que por muito tempo foi considerada como memória volátil. Mas será que essa história ainda funciona assim?
Os primórdios da memória Flash

No começo da década de 1980, engenheiros relacionados à Toshiba começaram a desenvolver unidades de armazenamento que permitissem muito mais rapidez no acesso e dispensassem a utilização de partes mecânicas (como acontece com os discos rígidos comuns). Para isso, unidades de memória Flash passaram a ser pesquisadas e desenvolvidas.


O nome da tecnologia é oriundo da similaridade do processo com os flashs das câmeras fotográficas. Em vez de os dados serem escritos em discos rotativos, eles são enviados para a memória em pulsos elétricos (pendrives, por exemplo, apresentam clocks de pulso de cerca de 12 MHz).

Nesse período de desenvolvimento, muitos tipos diferentes de memória Flash foram utilizados até que se atingisse o atual patamar, em que os padrões respondem pelos nomes NOR ou NAND (a primeira possui capacidades mais baixas, além de possuir custos mais elevados e ser mais lenta do que a NAND).
Volátil ou não volátil?

Atualmente, a memória Flash não é volátil, mas houve um período em que os dispositivos utilizados para o armazenamento dos arquivos eram SDRAM (o mesmo padrão utilizado por muitos pentes de memória RAM, possuindo capacidade de sobreinscrições ilimitadas). Isso acontecia porque os desenvolvedores buscavam formas de eliminar a limitação de inscrições que os discos apresentavam.

Como sabemos, esse tipo de memória é “zerado”, a cada vez que a energia elétrica é cortada. Para evitar que os discos perdessem todos os dados, foram colocadas baterias nas estruturas, garantindo que nunca faltasse alimentação energética e, assim, os dados não seriam perdidos.




(Fonte da imagem: Sandisk)

O grande problema disso é que, após algum tempo, a bateria perdia a carga e os dados eram perdidos completamente. Foi com isso que surgiu o mito relacionado à perda de informações dos discos removíveis. Pode-se dizer que essa fase do desenvolvimento “sujou” o nome da memória Flash.
Mas afinal, é só um mito?

Como já dissemos, houve um período em que os dispositivos de memória Flash eram voláteis, impedindo que os usuários pudessem manter seus dados seguros por muito tempo, mas hoje a história é bem diferente. Como são utilizadas memórias NAND (Not And, ou seja, sequenciais), os pendrives não são voláteis.

Em suma, utilizando como base os pendrives e SSDs atuais, a dúvida de hoje é realmente um mito. Mas um problema precisa ser lembrado: a memória Flash sofre com a limitação de inscrições. Ou seja, após algum tempo, os dispositivos de memória deixam de apagar dados e armazenar novos, tornando-se estáticos (como CDs que não permitem regravações).

.....

Você já sabia que isso era apenas um mito? Já havia ficado com medo, por achar que após longos períodos de ociosidade seus arquivos poderiam ser perdidos? Aproveite o espaço de comentários para dizer se já sofreu com perdas de arquivos em discos portáteis.

Leia mais no Baixaki: http://www.tecmundo.com.br/9529-mito-ou-verdade-pendrives-perdem-os-dados-se-ficarem-muito-tempo-desligados-.htm#ixzz1JP9Gojqo

segunda-feira, 11 de abril de 2011

A história da interface gráfica

O pai do mouse e da interface gráfica

Inspirado pelo trabalho de Vannevar Bush, o engenheiro elétrico Douglas Engelbart visualizou a possibilidade de usar computadores para aumentar o intelecto humano, em vez de substituí-lo. Ele acreditava que, com informações dispostas em uma tela, o usuário poderia se organizar de maneira gráfica e pular de uma informação para outra, sempre que necessário.
Periféricos demonstrados por Engelbart em 1968 (Fonte da imagem: Doug Engelbart Institute)

Como no caso do Memex, as ideias de Engelbart estavam muito à frente de sua época. Em 1962, até mesmo interfaces em modo texto, com comandos sendo executados em tempo real, eram consideradas como “de outro mundo”, já que os mainframes da época eram operados com cartões perfurados e demoravam horas ou dias para entregarem o resultado do processamento.

Em 1968, depois de conseguir um financiamento para suas pesquisas, Engelbart e sua equipe demonstraram o potencial dos computadores e de alguns dispositivos de entrada. Entre os “periféricos”, estava uma caixa retangular, com três botões na parte de cima e conectada ao computador por um cabo: era um dos primeiros modelos de mouse da história, inventado pelo próprio Engelbart e construído por um dos engenheiros da equipe.
Captura de imagem da primeira videoconferência (Fonte da imagem: Wikipedia)Mas o mouse foi apenas uma das muitas inovações demonstradas naquele dia, que incluíam o hipertexto, comunicação por rede e uma tela compartilhada por duas pessoas que estavam em locais diferentes, mas que podiam trabalhar em conjunto: a primeira videoconferência da história.

Os softwares desenvolvidos para esse computador ainda não trabalhavam com o conceito de janelas, como nas interfaces atuais.
Janelas: cada um no seu quadrado

Com o surgimento da Smalltalk, linguagem de programação e ambiente de desenvolvimento que possuía uma interface gráfica diferenciada, a GUI começou a ganhar aspectos mais modernos, em 1974.
Smalltalk sendo executado no Alto, em 1979 (Fonte da imagem: The Weekly Squeak)

A grande inovação foram as janelas, que possuíam bordas e barras de títulos que permitiam a identificação e o reposicionamento delas. O conceito de ícones também surgiu na mesma época, assim como o menu de contexto. No mesmo período, também foram apresentadas as barras de rolagem, as caixas de diálogo e os botões de opções (radio buttons).
A chegada da Apple

Outro passo importante na história das interfaces gráficas foi dada pela startup criada por Steve Jobs e Steve Wozniak, em 1976. Com a contratação de ex-funcionários da Xerox, a Apple pode iniciar o desenvolvimento do computador pessoal Lisa, em 1978.

A equipe de desenvolvedores trabalhou em uma interface baseada em ícones, em que cada um deles indicava um documento ou uma aplicação. Além disso, a equipe criou a primeira barra de menu desdobrável (pull-down), que hospedava todos os menus logo nas primeiras linhas da tela.
Lisa OS, da Apple, lançado em 1983 (Fonte da imagem: Toasty Technology)Outras inovações do mesmo produto ficaram a cargo das marcas de verificação (checkmarks), que ajudam a destacar os itens do menu que estejam ativados, e também o conceito de atalhos de teclado para os comandos mais comuns. Mais uma novidade foi a aparição do ícone da Lixeira, para onde o usuário podia arrastar arquivos para removê-los posteriormente.

O mouse, que havia se consagrado com três botões, passou a ter apenas um no Lisa e, como a interface exigia pelo menos duas ações para cada ícone, uma para selecionar e outra para executar o programa ou arquivo, foi criado o conceito de duplo clique.
Outras interfaces da época

A VisiCorp era uma das empresas que também estava trabalhando em interfaces gráficas para computadores pessoais. Responsável pela planilha eletrônica VisiCalc, a empresa lançou uma interface para PCs, em 1983, mas que não chegou a fazer muito sucesso. Além do preço alto e de exigir muito recurso de hardware, a VisiOn, como era chamada, também teve alguns retrocessos, como deixar de usar ícones e eliminar o cursor do mouse.
VisiOn, da VisiCorp, interface para PCs da IBM. (Fonte da imagem: Toasty Technology)

Outra interface que surgiu na década de 80 foi a Tandy DeskMate, da Tandy Computers, e a GEM, que fornecia uma interface gráfica para o DOS e era tão parecida com a interface do computador Lisa que a Apple chegou a processar os fabricantes.


Interface GEM (Fonte da imagem: Toasty Technology)Os computadores Amiga, da Commodore, também introduziram uma nova GUI, a Workbench, que trouxe algumas inovações ao mundo dos computadores pessoais, como a possibilidade de redimensionar ou mover uma janela sem trazê-la para o foco principal.

Em 1986, a Berkeley Softworks lançou a GEOS, interface para computadores Commodore 64 e Apple, que tinha uma aparência parecida com a da GEM. Mais tarde, essa GUI foi portada para PCs e, com isso, acabou se tornando uma concorrente para a Microsoft, que havia anunciado a primeira versão do Windows em1983.


Primeira versão do Microsoft Windows (Fonte da imagem: Microsoft)Uma das mudanças radicais da interface gráfica do Windows foi o fato de que cada janela tinha a sua própria barra de menus, diferentemente do Lisa e dos Macintosh, que tinham uma barra única no topo da área de trabalho. Outro diferencial, que não sobreviveu até a versão 2.0 do Windows, em 1987, foi a disposição lado a lado das janelas.

Vale a pena lembrar que, no começo, a Microsoft trabalhava como uma empresa terceirizada para a Apple e, por isso, testou os modelos em fase Beta dos Macs. Isso serviu de inspiração para a criação da sua interface gráfica e, durante o lançamento do Windows 2.0, a empresa chegou até a ser processada pela Apple.
Arthur, da Acorn, lançou o conceito de dock. (Fonte da imagem: Toasty Technology)

Em 1987, também surgiu um novo conceito no mundo das GUIs: o Dock. A responsável pela criação foi a empresa Acorn Computers, que desenvolveu a Arthur, interface que também foi a primeira a usar fontes com anti-aliasing, mesmo em modo de 16 cores.
NeXTSTEP inaugurou objetos com aparências 3D e o botão de fechar janelas (Fonte da imagem: Wikipedia)

Já a NeXTSTEP, em 1988, foi a interface que introduziu uma aparência 3D aos seus componentes, além de ter sido a primeira a usar o botão em forma de “X” para fechar janelas. Na mesma época, também surgiu a primeira versão gráfica do OS/2, projeto colaborativo entre Microsoft e IBM para desenvolver um sistema que pudesse substituir o MS-DOS. A interface da versão 1.1 era muito similar à do Windows 2.0.
X Window System (Fonte da imagem: Wikipedia)

No fim dos anos 80, muitas interfaces gráficas começavam a surgir para as estações Unix. Essas GUIs eram executadas sobre um sistema gráfico e com suporte à rede, conhecido como X. Mais tarde, esse sistema também se tornou a base dos ambientes gráficos do Linux. Uma das novidades do X Window System foi o fato de poder habilitar o foco em uma janela apenas posicionando o mouse sobre ela, sem clicar. Atualmente, muitos projetos gráficos ainda fazem uso do X, com o KDE e o GNOME, que teve sua terceira versão lançada nesta semana.
As interfaces mais recentes

Durante os anos 90, apenas duas empresas resistiram à “peneira” do mercado: a Microsoft e a Apple. As demais entraram em falência ou foram adquiridas por outras companhias.
Windows 3.0 (Fonte da imagem: Toasty Technology)

O Windows ganhou muita popularidade com as versões 3.0, em 1990, e 3.1, em 1992. Apesar de ainda não ter alguns recursos simples, que já estavam implementados no Macintosh, foram vendidas milhões de cópias dessas versões do sistema da Microsoft. Mais tarde, com a chegada do Windows 95, a empresa de Bill Gates se consolidou como a líder do mercado e detentora de um dos softwares mais famosos até hoje.
Interface do BeOS (Fonte da imagem: Toasty Technology)

Quando o cenário já parecia ter se estabilizado, eis que surge uma novidade: o BeOS, sistema operacional da Be Incorporated, com uma interface em que a barra de título lembrava a do Smalltalk, ocupando apenas parte de toda a extensão das janelas. Um versão open source do BeOS continua em desenvolvimento, sob o nome de Haiku.

A Apple também continuou inovando e lançou a interface Aqua, para o novo sistema operacional da empresa, o Mac OS X. Além da aparência nova, uma das principais novidades da Aqua era o fato de que as janelas podiam ser redesenhadas rapidamente, de maneira imperceptível aos olhos, quando movidas ou redimensionadas.
Interface Aqua, lançada pela Apple com o Mac OS X. (Fonte da imagem: Toasty Technology)

Outras inovações ficaram por conta dos efeitos de animação executados durante o ato de minimizar programas. Em versões mais recentes, a empresa também adicionou o conceito de Exposé, que mudou a forma como as pessoas alternavam entre os softwares abertos na área de trabalho.

A Microsoft também continuou inovando. Com o lançamento do Windows Vista, pudemos ver a estreia do Aero, responsável pelos efeitos visuais de sombra e transparência da Área de trabalho. Com o Windows 7, a interface foi aprimorada, ganhando suporte a telas touchscreen e multitouch, além de apresentar uma barra de ferramentas totalmente reformulada e o Aero Shake, que permite interação com as janelas ao sacudi-las.
Windows 7 (Fonte da imagem: Wikipedia)

O Windows 7 também ganhou efeitos 3D, semelhantes aos proporcionados pelo Compiz, no Linux. O próprio Compiz acabou se inspirando no Exposé, da Apple, para fornecer um efeito semelhante sobre o X Window System.
O Compiz adicionou efeitos 3D ao desktop Linux (Fonte da imagem: Compiz)

Os recursos 3D parecem ser a última cartada das interfaces gráficas, que agora começam a se adaptar aos novos dispositivos portáteis e operados por toques na tela, com os dedos. Outro recurso que está ganhando força é o chamado Desktop Semântico, que trabalhará não apenas com os arquivos, mas também com o conteúdo e a informação contextual ao manipular esses arquivos.

Resta esperarmos para ver as próximas novidades da indústria, quem sabe noticiadas por um artigo aqui mesmo, no Tecmundo, daqui a 10 ou 20 anos.

Leia mais no Baixaki: http://www.tecmundo.com.br/9528-a-historia-da-interface-grafica.htm#ixzz1JEKoouOc

domingo, 10 de abril de 2011

iPhone 4 estaria espionando usuários

(Fonte da imagem: Divulgação/Apple)

O fórum de discussões da Apple tem recebido relatos de que o FaceTime do iPhone 4 estaria capturando imagens sem o consentimento dos usuários. Segundo reporte de um usuário do gadget, uma foto desconhecida apareceu durante uma chamada no software de videoconferências do aparelho.

“Eu e meu namorado experimentamos o acontecido várias vezes – Quando um de nós chama o outro através do FaceTime, uma imagem antiga aparece congelada na tela, enquanto aquele que recebe a chamada vê apenas uma tela preta. É bastante assustador, porque ele trouxe até fotos de nós trabalhando, onde utilizamos o FaceTime algumas vezes, mas nunca entre nós dois. Não é terrivelmente inconveniente, mas é definitivamente inquietante, já que aparecem imagens de lugares que nós nunca tiramos fotos ou sequer usamos o FaceTime”, comentou uma usuária no mês passado.

O motivo das imagens armazenadas sem o conhecimento dos usuários ainda não foi explicada pela empresa. Não se sabe se as fotografias foram capturadas intencionalmente, devido a alguma falha no sistema operacional ou apenas como consequência do buffer de chamadas anteriores. De acordo com o relato, as figuras são armazenadas apenas no dispositivo, não sendo compartilhadas com outros equipamentos ou serviços.

Leia mais no Baixaki: http://www.tecmundo.com.br/9536-iphone-4-estaria-espionando-usuarios.htm#ixzz1JBAWRLFp

U2 arrebata o Morumbi no primeiro show da turnê '360°' em São Paulo



SÃO PAULO - Poucos minutos antes da abertura dos portões, tudo seguia como esperado ao redor do estádio do Morumbi. Jovens em vigília há dias se punham de pé e em fila na esperança de conseguir o melhor lugar possível na plateia, camelôs agitavam e vendiam souvenirs e ambulantes hidratavam gargantas sedentas para botar de vez suas vozes para fora. Do lado de dentro, no entanto, uma grande diferença se impunha: uma monumental estrutura de palco fincando suas quatro enormes garras no gramado. Era o sinal e o símbolo da dominação global que o U2 comanda desde 2009 com a turnê "360°", que depois de circular por 30 países aterrissou em São Paulo neste sábado.

Eram 21h30m quando os ponteiros de um relógio estampado num telão foram para os ares, indicando o que todos aguardavam desde a última apresentação da banda no país, em 2006. Logo depois, o sistema de som que fazia ecoar pelo estádio "Space oddity", de David Bowie, se calou. As luzes se apagaram, e um imenso telão cilíndrico formado por painéis interligados de LED revelaram Bono Vox, The Edge, Adam Clayton e Larry Mullen Jr. caminhando para o palco. A postos, atacaram com "Even better than the real thing", do álbum "Achtung baby" (1991), emendando com "I will follow", primeira faixa e single do álbum de estreia do grupo, "Boy" (1980). Logo depois, os riffs pesados e dançantes de "Get on your boots" se juntaram aos solos sensuais e nostálgicos criados por The Edge para "Magnificent", um dos destaques do último disco do grupo, "No line on the horizon" (2009).

Bono Vox e Adam Clayton no show realizado no estadio do Morumbi.Foto Marcos Alves /Agencia O Globo.

Bono Vox comanda o show realizado no estadio do Morumbi.Foto Marcos Alves /Agencia O Globo.
Daí para frente teve de tudo que um show do U2 oferece como arte e entretenimento, lição de vida e de business: Bono se debatendo no ar, cantando no chão, se pendurando num cabo de aço, chamando uma menina da plateia e pedindo que ela lesse um trecho de "Carinhoso", de Pixinguinha, assim como suas corridas olímpicas pela pista circular que envolve o palco entoando hits como "Elevation", "Vertigo"", "Mysterious ways" e "I still haven't found what I'm looking for", pinçada da máquina de hits "The Joshua tree" (1987) - o álbum mais vendido da banda, com mais de 25 milhões de cópias ao redor do globo, rendeu ainda "Where the streets have on name" e "With or without you".

O ativismo político e social também esteve presente no show, fosse nos telões com imagens de guerra para ilustrar clássicos como "Sunday bloody sunday", como também no discurso de Bono, que prestou um tributo a líder opositora birmanesa e prêmio Nobel da Paz Aung San Suu Kyi, lembrou do encontro que teve com a presidente Dilma Rousseff ao longo da última semana, em Brasília, e homenageou as vítimas do atentado ocorrido na escola Escola Municipal Tasso de Silveira, em Realengo, com a bela "Moment of surrender", tirada de "No line on the horizon" (2009).

Em duas horas de apresentação, o grupo tocou 23 músicas. E mostrou que o poder de fogo no palco continua tão intacto quanto a facilidade em fazer com que as suas novas canções soem instantaneamentge como antigos clássicos. Numa noite que teve como show de abertura o poderoso trio Muse, o U2 mostrou entrega e profissionalismo em igual medida, equação que sustenta uma performance irrepreensível e uma banda que ainda tem fôlego de sobra para se manter no topo do universo da música pop.

Google doa 1 bilhão de horas do seu datacenter para pesquisa científica

Google doa 1 bilhão de horas do seu datacenter para pesquisa científica

Thássius Veloso Do Tecnoblog
comente agora


google (Foto: Divulgação)google (Foto: Divulgação)

Uma empresa feita por engenheiros como o Google nunca deixa de contribuir para a pesquisa científica. Num dia em que o Facebook revelou ao mundo como é o seu mais novo — e gigantesco! — datacenter, foi o Google quem chamou a atenção por oferecer a capacidade dos seus datacenters para que pesquisadores científicos possam usá-los.

A iniciativa, chamada de Google Exacycle for Visiting Faculty, oferece computação com processadores de uso intenso especificamente para cientistas. No total, a empresa oferece nada menos que 1 bilhão de horas de computação para esses parceiros, que ainda serão escolhidos. Universidades e centos de pesquisa estão mais do que convidados a participar do programa.

Entre as finalidades desse bilhão de horas, o Google quer ajuda a processar arquivos do tipo batch que ajudem a calcular informações para áreas como biomedicina, energia, ciências da terra e astronomia. Mas bacana mesmo será ver esse poderio computacional todo sendo usado para projetar cenários climáticos no futuro (só não sei se os cenários vão agradar muito).

sexta-feira, 8 de abril de 2011

O que esperar dos carros do futuro?

(Fonte da imagem: Kia Motors)

O Salão do Automóvel de Genebra, encerrado na semana passada, serviu para que muitas fabricantes apresentassem os conceitos que devem modificar a forma como dirigimos nos próximos anos. Apesar de ainda estarmos longe dos automóveis voadores há muito sonhados, as novidades apresentadas mostram que ainda há muito o que evoluiu em matéria de comodidade e interação com outros dispositivos.
Painéis entram em dieta
As principais novidades apresentadas ficam por conta de reformulações nos painéis dos veículos, que tendem a ocupar menos espaço e ganhar um visual mais limpo. Exemplo dessa tendência é o Pop, carro conceito fabricado pela Kia que substitui os ponteiros tradicionais por uma tela OLED interativa e que ocupa muito pouco espaço.
O uso de tecnologias sem fio também vai permitir que muitos dos acessórios disponíveis atualmente se tornem coisa do passado. Algumas fabricantes apostam que os veículos do futuro nem sequer terão rádio – todas as músicas ficarão armazenadas no smartphone do usuário, que poderá tocá-las no sistema de som do veículo.
Ampliar (Fonte da imagem: AutoSpies)
Painéis menores não só significam um design mais arrojado, como proporcionam maior conforto ao disponibilizar maior espaço para o motorista se movimentar. Além disso, o uso de menos materiais significa carros mais leves, em que o consumo de energia é diminuído.
O uso de dispositivos como o iPad ou a incorporação de sistemas operacionais como o Android podem ajudar no processo de diminuição dos painéis. Em vez de ter que disponibilizar um controle para cada função do carro, basta às fabricantes integrar telas sensíveis ao toque em seus veículos para concentrar em um só local a abertura de janelas ou o ajuste do ar-condicionado, por exemplo.
Conexão constante com a internet
Assim como aconteceu com os telefones celulares, a conexão com a internet deve ser algo praticamente indispensável nos veículos do futuro. Fabricantes apostam na construção de carros com conectividade 3G, permitindo aos passageiros acessar seus sites favoritos a partir de smartphones, notebooks e outros dispositivos compatíveis com a tecnologia.
Além disso, a conectividade constante permitiria aos veículos receber atualizações remotas em seu sistema de controle, evitando assim manutenções desnecessárias. Isso sem contar com o acesso instantâneo a mapas que indicam a melhor rota a seguir, alertando o motorista sobre mudanças de sentido e trechos congestionados.
Novas formas de interação
O uso de novas tecnologias também é capaz de mudar totalmente a forma como interagimos como os veículos. Apesar de visto com desconfiança por muitas fabricantes, já há quem aposte que os carros do futuro não precisarão mais de chaves – um aplicativo de autenticação no celular do motorista seria responsável por realizar funções como abrir e ligar o automóvel.
Uma das novidades que tem tudo para surpreender e virar padrão é o uso da realidade aumentada para auxiliar a direção. O Mini Rocketman, da BMW, é exemplo disso – usando um aparelho GPS como guia, o veículo é capaz de exibir na tela do carro uma seta que indica o melhor caminho a seguir e a melhor via a ser seguida.
Tecnologias já disponíveis
Muitos dos conceitos interessantes apresentados em Genebra já estão disponíveis em alguns modelos disponíveis para venda no mercado. Infelizmente, a maioria deles ainda está restrita aos poucos que podem gastar o suficiente para conferir em primeira mão os últimos avanços tecnológicos disponíveis.
Porém, tudo indica que não deve demorar muitos anos até que modelos mais populares contem com algumas dessas novidades. Até lá, resta aguardar e ver quais delas se tornarão tendências e quais não passam de mera curiosidade.

Leia mais no Baixaki: http://www.tecmundo.com.br/9153-o-que-esperar-dos-carros-do-futuro-.htm#ixzz1Ix9I4fuM